Uciec z Ukrainy? Można stracić życie albo trzeba dać łapówkę od 5 do 10 tysięcy euro.

Posted by Marucha w dniu 2024-05-09 marucha

Można stracić życie albo trzeba dać łapówkę w kwocie od 5 do 10 tysięcy euro.

Znajoma Ukrainka, pracowita i zaradna, sympatyczna, pracowała we Wrocławiu jako sprzątaczka. Zarabiała dość sporo pieniędzy, ale może jednak za mało, by ‚wykupić’ dwóch synów, którzy pozostawali na Ukrainie. Wyjechała do Niemiec i dość szybko synowie mogli opuścić kraj ‚walczący za Europę’ (a więc i za Polskę). Nie każdy jednak może pozwolić sobie na taki wydatek.

Wielu Ukraińców, którzy znaleźli się już na froncie, ma szansę poddać się rosyjskiemu oddziałowi, ale też można zginąć od rosyjskiej kuli albo być trafionym w plecy podczas ucieczki na drugą stronę. Banderowskie bataliony czuwają nad dyscypliną żołnierzy, którzy jednak nie chcą ginąć za Zełenskiego i kijowski reżim. Jeszcze można przepłynąć rzekę Cisę i o tym jest w poniższym krótkim tekście:

Utonęło sześciu kolejnych Ukraińców podczas ucieczki do UE

Cisa stanowi granicę między Ukrainą a Unią Europejską. Część Ukraińców, chcąc uniknąć wojny i mobilizacji, próbuje przeprawić się przez rzekę. W rezultacie część z nich umiera w wodzie. Ukraińska straż graniczna niemal codziennie aresztuje osoby próbujące przedostać się przez Cisę do Rumunii. Podobno niektórzy z nich próbowali przeprawić się przez rzekę, mimo że nie umieli pływać.

Według władz rumuńskich od początku wojny ponad 6 tysięcy osób próbowało przekroczyć rzekę, granicę z Rumunią – podaje ‚The New York Times’. Część z nich korzysta z pontonów i materacy. Nie wszyscy przeżyli. Mężczyźni umierają m.in. z powodu wychłodzenia.

Według ukraińskiego dziennikarza w poniedziałek z rzeki wydobyto sześć kolejnych ciał, cztery po stronie ukraińskiej i dwa po rumuńskiej. „Jeden z mężczyzn niedawno skończył 20 lat” – napisał na Telegramie Witalij Głagoła, ostrzegając przed niebezpieczeństwami związanymi z przeprawą przez zdradliwą górską rzekę.

W poniedziałek ukraińska straż graniczna oficjalnie potwierdziła śmierć mężczyzny w średnim wieku, na którego ciele widoczne były oznaki długotrwałego przebywania w wodzie. Ciało odkryli rumuńscy koledzy po drugiej stronie granicy.

„Pomimo niższego poziomu wody przeprawa przez rzekę, jak każdy inny nieznany zbiornik wodny, pozostaje niebezpieczna, zwłaszcza w ciemności, gdy nieuczcwi ludzie poszukujący nielegalnego wzbogacenia się oferują swoim ofiarom przeprawę na drugą stronę” – informuje ukraińska straż graniczna. – „Rzeka jest płytka tylko po stronie ukraińskiej. Jeśli jest zimno i poziom wody się podnosi, szanse na przepłynięcie na drugą stronę są bardzo nikłe. Dlatego poszukiwania stały się częścią codziennego życia. Niektórych zaginionych nigdy nie odnaleziono”.

>https://freede.tech/europa/204930-bericht-weitere-sechs-ukrainer-ertrinken/?utm_source=Newsletter&utm_medium=Email&utm_campaign=Email

Opracował: Zygmunt Białas
https://zygumntbialas.neon24.net

Czy w Polsce zostanie kiedykolwiek wybudowana elektrownia atomowa?

Czy w Polsce zostanie kiedykolwiek wybudowana elektrownia atomowa?

9.05.2024 Autor: Miroslaw Gajer czy-w-polsce-zostanie-kiedykolwiek-wybudowana-elektrownia-atomowa

Elektrownia atomowa.
Elektrownia atomowa. Zdjęcie ilustracyjne. / foto: Pixabay

W przeprowadzonym niedawno wywiadzie wybitny autorytet w dziedzinie elektroenergetyki, reprezentujący Politechnikę Łódzką profesor Władysław Mielczarski, wylał dosłownie kubeł zimnej wody na rozpalone do czerwoności głowy entuzjastów budowy w Polsce elektrowni atomowych.

Sprawa sprowadza się głównie do tego, że zarówno w Stanach Zjednoczonych, jak i w Europie, energetyka jądrowa jest już zdecydowanie technologią schyłkową.

W Stanach Zjednoczonych nowych elektrowni atomowych nie buduje się w zasadzie już od ponad 30 lat, co dobitnie pokazuje rysunek 1, gdzie kolorem czerwonym zaznaczono skasowane projekty budowy nowych tego typu obiektów.

Rys. 1. W ciągu ostatnich trzydziestu lat w USA oddano do użytku tylko trzy nowe reaktory jądrowe (źródło: https://wysokienapiecie.pl/34750-w-nadchodzacym-roku-polska-wybierze-atomowego-partnera-przynajmniej-tak-twierdzi-rzad/)

Tymczasem w kwestii budowy pierwszej polskiej elektrowni atomowej postawiliśmy właśnie na Amerykanów i na opracowaną przez ich firmę Westinghouse technologię reaktorów typu APD-1000. Tylko, żeby wszystko było jasne, Westinghouse tej pierwszej polskiej elektrowni jądrowej w Lubiatowie-Kopalinie w żadnym wypadku nie wybuduje, ponieważ firma ta realizacją tego rodzaju obiektów po prostu się nie zajmuje.

Od Westinghouse zakupiliśmy tylko dokumentację techniczną, czyli de facto mamy na razie jedynie kilka ton zadrukowanego papieru. Dopiero na podstawie rozważanej dokumentacji technicznej, czyli zakupionej od firmy Westinghouse technologii, tę elektrownię atomową trzeba będzie kiedyś wybudować – według optymistycznych wariantów ma to nastąpić do roku 2036.

I właśnie w tym momencie zaczynają się przysłowiowe „schody”, jak swego czasu zwykł był mawiać generał Bolesław Wieniawa-Długoszowski, zapewne uprzednio sporo wypiwszy.

Problem polega na tym, że żadna z działających na terenie naszego kraju firm nie ma większego doświadczenia w kwestiach związanych z budową tego typu obiektów. W zasadzie nie posiadamy również odpowiednio wyszkolonych w tym celu kadr, ponieważ te, które były tworzone w latach osiemdziesiątych ubiegłego wieku pod kątem budowy elektrowni atomowej w Żarnowcu, dawno już przeszły na emeryturę albo wręcz przeniosły się już do wieczności.

Tymczasem w mediach głównego nurtu sprawa budowy pierwszej polskiej elektrowni jądrowej przedstawiana jest w taki sposób, jakby miała to być budowa jakiegoś zwykłego bloku mieszkalnego, szkoły bądź co najwyżej powiatowego szpitala, a w istocie jest to bardzo złożony proces, wymagający pospinania licznych łańcuchów dostaw i odpowiedniego harmonogramowania prac. [Potrafią zbudować kładkę przez Wisłę, to co im tam „atomy”. MD]

Inne potencjalne kierunki

Skoro nie Amerykanie, to może ktoś inny? Tymczasem w Europie sytuacja nie wygląda o wiele lepiej, co można zobaczyć na rysunku 2. Obecnie elektrownie atomowe w Europie są w stanie wybudować jedynie Francja i Rosja. Oczywiście w naszym przypadku, w obecnej sytuacji politycznej współpraca w tym zakresie z drugim krajem nie wchodzi w ogóle w rachubę. Jednocześnie warto pamiętać, że to właśnie Rosjanie mają już w najbliższej przyszłości przystąpić do rozbudowy istniejącej od dawna w miejscowości Paks węgierskiej elektrowni jądrowej o dwa nowe bloki energetyczne o mocy 1200 MW każdy. Aktualnie Rosja buduje także elektrownię atomową w Turcji. Od Rosji paliwo jądrowe zakupuje ponadto wiele innych krajów europejskich, a także i same Stany Zjednoczone (sic!), co dla wielu czytelników może wydawać się informacją wręcz szokującą.

Potencjalnie elektrownię atomową mogliby nam wybudować Francuzi, którzy posiadają bardzo nowoczesną technologię w postaci produkowanych przez nich reaktorów typu EPR-1600. Jest tylko jeden problem związany przede wszystkim z potencjalnym czasem realizacji tego rodzaju ogromnego przedsięwzięcia. Mianowicie, budowa oddanej przez Francuzów elektrowni atomowej w Finlandii w 2023 roku rozpoczęła się jeszcze w roku 2005, czyli trwała ponad 18 lat – o wiele dłużej niż pierwotnie zakładano. Gdybyśmy zapisali się u Francuzów do kolejki na realizację elektowi atomowej w naszym kraju, to z pewnością by nam ją wybudowali, ale prawdopodobnie dopiero gdzieś w okolicach roku 2045. Jest doprawdy wielką naiwnością sądzić, że w przypadku naszego kraju proces budowy takiej elektrowni przebiegałby szybciej, niż miało to swego czasu miejsce w znacznie bardziej zaawansowanej technologicznie od nas Finlandii.

Rys. 2. Stan rozwoju energetyki jądrowej w Europie (źródło: https://wysokienapiecie.pl/78578-klimat-dla-atomu-w-europie/)

W mediach mówi się także o innej możliwości, gdyż potencjalnie chętni do wybudowania nam elektrowni atomowej we własnej technologii byliby również Koreańczycy. Jednak opcja taka wydaje się obecnie całkowicie nierealna, głównie z tego względu, że technologie koreańskie różnią się diametralnie od technologii stosowanych w Europie, to po prostu jest inna „bajka”. Uzyskanie zgody na wybudowanie na terytorium Unii Europejskiej elektrowni atomowej w technologii koreańskiej wymagałoby zdobycia wręcz niezliczonej ilości różnego rodzaju certyfikatów i pozwoleń ze strony europejskich agencji atomistycznych, a proces ten ciągnąłby się zapewne latami.

Gonienie „króliczka”

Jak wynika z zamieszczonych powyżej rozważań, nie jest rzeczą bynajmniej definitywnie już przesądzoną, że jakakolwiek elektrownia atomowa w naszym kraju w ogóle powstanie. Zresztą historia budowy elektrowni atomowej w Polsce przypomina przysłowiową pogoń za „króliczkiem”. Ale, być może, w tym całym szaleństwie jest jednak jakaś metoda, bo prawdopodobnie nie chodzi tutaj o to, aby tego „króliczka” kiedyś wreszcie złapać, ale właśnie by gonić go… A swoją drogą, ile to już miliardów złotych na to „gonienie króliczka” w Polsce wydano? Ile ktoś na tym zarobił… I co z tego w sumie mamy? Wszak na to ostatnie pytanie można odpowiedzieć zaledwie jednym rzeczownikiem…

W tym miejscu należałoby przede wszystkim postawić pytanie, po co właściwie potrzebna nam jest ta elektrownia atomowa i dlaczego koniecznie chcemy ją w naszym kraju wybudować? I właśnie tutaj dochodzimy do sedna sprawy.

Otóż przyczyną tego całego „zamieszania” i po prostu „zawracania sobie głowy” niedostępnymi dla nas obecnie technologiami jądrowymi jest podjęcie swego czasu fundamentalnej decyzji, dotyczącej całkowitego porzucenia w polskiej energetyce paliw kopalnych – w pierwszym rzędzie węgla, a następnie docelowo również i gazu ziemnego, ponieważ w zamyśle „utopistów”, którzy podpisali tego rodzaju zobowiązania, wszystko ostatecznie w Polsce ma być „zielone”, a najlepiej byłoby, gdyby już w roku 2040 emisja dwutlenku węgla została zredukowana aż o 90 proc.

Wiara w to, że taka redukcja emisji dwutlenku węgla jest w ogóle możliwa, to po prostu całkowite ignorowanie obowiązujących powszechnie w świecie, w którym żyjemy, praw fizyki. To wszystko są mrzonki i jakieś fantasmagorie, to jest po prostu niewykonalne, no chyba, że mamy cofnąć się cywilizacyjnie wręcz do epoki przedprzemysłowej, gdy antropogeniczna emisja dwutlenku węgla była jedynie śladowa.

Skoro uprzednio ktoś podpisał w imieniu narodu polskiego tego rodzaju zobowiązania, to teraz mamy przysłowiową „żabę”, którą musimy już w najbliższej przyszłości w jakiś sposób zjeść, a że w zasadzie w ogóle nie wiemy, jak ją ugryźć, próbujemy zatem dosłownie wszystkiego (choćby i energetyki jądrowej) – wszak „tonący nawet brzytwy się chwyta”.

Aby zrozumieć, w czym rzecz, wystarczy spojrzeć na rysunek 3, na którym pokazano wykres, przedstawiający, jak wyglądał polski miks energetyczny w 2023 roku.

Rys. 3. Polski miks energetyczny w 2023 roku (źródło: https://energy.instrat.pl/weglowe-podsumowanie-2024-02-22/)

Jak widać, ze spalania węgla (kamiennego i brunatnego) pochodzi łącznie aż 61 proc. wytworzonej w Polsce energii elektrycznej. Kolejne jej 10 proc. pochodziło ze spalania gazu ziemnego, a prawie 5 proc. ze spalania biomasy. Tymczasem tzw. „bezemisyjne” źródła energii (w rzeczywistości coś takiego nie istnieje, bo co przykładowo choćby z węglem spalonym w celu wytopienia stali i wypalenia cementu na fundamenty wiatraków i budowę zapory elektrowni wodnej?) wyprodukowały zaledwie 22 proc. zużywanej w kraju energii elektrycznej.

Do ukazanych na rys. 3 bezemisyjnych źródeł energii elektrycznej zaliczane są wyłącznie elektrownie wodne, wiatrowe i fotowoltaika. Co ciekawe, nie zalicza się tam już z jakichś powodów biomasy, być może dlatego, że jest to de facto „młodsza siostra” węgla.

Pułapka bezemisyjnych źródeł energii

Udział energetyki wodnej w polskim miksie energetycznym jest znikomy (zaledwie 1,5 proc.) i nie ma żadnych możliwości istotnego zwiększenia jego udziału w przyszłości, gdyż po prostu jesteśmy krajem raczej ubogim w zasoby wodne. Z kolei fotowoltaika odpowiedzialna jest za 6,9 procent produkcji energii elektrycznej w Polsce, przy czym łączna moc zainstalowana w panelach przekroczyła już wartość 17 GW (dla porównania największa polska elektrownia w Bełchatowie ma nieco ponad 5 GW). Ktoś może naiwnie rozumować, że gdyby podwoić całkowitą moc zainstalowaną w polskich panelach fotowoltaicznych, czyli zwiększyć ją do wartości 34 GW, to automatycznie udział fotowoltaiki w polskim miksie energetycznym również ulegnie podwojeniu i osiągnie w związku z tym wartość 13,8 proc.

Nic bardziej mylnego! To tak po prostu nie działa. W przypadku fotowoltaiki stoimy obecnie już właściwie pod ścianą, o czym najlepiej świadczy fakt, że w marcu, czyli w okresie, gdy okres wzmożonej generacji mocy w instalacjach fotowoltaicznych właściwie na dobre nawet się jeszcze nie zaczął, Polskie Sieci Elektroenergetyczne S. A. (PSE) musiały aż w sześciu dniach tego miesiąca wydać specjalny komunikat o tzw. nierynkowym redysponowaniu mocy ze źródeł fotowoltaicznych, co po prostu sprowadza się do nakazu natychmiastowego odłączenia od sieci przesyłowych wybranych farm fotowoltaicznych. Tego rodzaju komunikat został wydany także w dniu 1 kwietnia 2024 roku i nie był to z całą pewnością prima aprilis. Z jego treścią czytelnik może zapoznać się na rysunku 4.

Rys. 4. Przykładowy komunikat PSE o nierynkowym redysponowaniu jednostek wytwórczych w KSE (źródło: https://www.pse.pl/home)

Analogiczny komunikat wydano zresztą w dniu 7 kwietnia 2024 roku, gdy na rynku pojawiły się przez trzy kolejne godziny ujemne ceny energii elektrycznej, co pokazano na rysunku 5. Taki stan rzeczy stanie się już prawdopodobnie żelazną regułą także i w kolejne weekendy, zapewne aż gdzieś do końca września.

Rys. 5. Ujemne ceny energii elektrycznej w godzinach okołopołudniowych w dniu 7 kwietnia 2024 (źródło: https://www.pse.pl/home)

Za tego rodzaju przymusowe odłączenie farm fotowoltaicznych od sieci przesyłowych ich właścicielom wypłacane jest przez PSE stosowne odszkodowanie. Takie postępowanie jest jednak absolutną koniecznością, ponieważ w przeciwnym wypadku nadmiar wprowadzonej do systemu elektroenergetycznego mocy spowodowałby dosłownie jego „eksplozję”, co skończyłoby się ostatecznie blackoutem na terenie całego kraju.

Podobnie sytuacja wygląda w przypadku elektrowni wiatrowych. W najbliższych latach postawienie kolejnych wiatraków lądowych oraz zainstalowanie ponad 7 GW w wiatrowych farmach morskich spowoduje, że w okresie przechodzenia frontów atmosferycznych kilka gigawatów generowanych przez wiatraki będzie musiało zostać przymusowo odłączonych od sieci z tego samego powodu, co wspomniana uprzednio fotowoltaika.

W związku z tym w naszym kraju nie ma już większych możliwości zwiększenia udziału w miksie energetycznym wymienionych źródeł „bezemisyjnych” – być może uda się ostatecznie uzyskać z nich łącznie około 30 proc. W ostatnim czasie różnej maści „eksperci” (najczęściej po jakichś studiach humanistycznych) głoszą powszechnie tezę, jakoby „cudownym” rozwiązaniem, pozwalającym w sposób istotny zwiększyć udział OZE w miksie energetycznym, było upowszechnienie tzw. „wielkoskalowych” magazynów energii. Osoby głoszące tego typu poglądy prawdopodobnie w ogóle nie odróżnią mocy od energii, a ponadto nie znają jednostek wielkości fizycznych i nie mają przede wszystkim pojęcia o rzędach wielkości, którymi operuje się w elektroenergetyce.

Dobowe zapotrzebowanie na energię elektryczną w Polsce przekracza wartość 500 GWh, a zdolność do magazynowania energii elektrycznej przez średniej wielkości elektrownię szczytowo-pompową Porąbka-Żar wynosi tylko 2 GWh. Gdyby jedynie 20 proc. dobowego zapotrzebowania na energię elektryczną w naszym kraju miało być pokrywane z magazynów energii (ponad 100 GWh), to takich elektrowni szczytowo-pompowych jak Porąbka-Żar potrzebowalibyśmy przynajmniej 50. Jest to ilość wręcz niewyobrażalna! W całym kraju trudno byłoby wskazać nawet tyle potencjalnych lokalizacji pod budowę takich potężnych obiektów hydrotechnicznych, a o wysiedleniu tysięcy ich mieszkańców nawet nie wspominając. Ponadto, uwzględniając fakt, że budowa elektrowni Porąbka-Żar trwała około 10 lat, to nawet gdyby budować w Polsce równolegle pięć tego typu magazynów energii, co i tak byłoby niebywałym wręcz wyczynem, to potrzebne ostatecznie 50 elektrowni szczytowo-pompowych mielibyśmy ukończone dopiero po 100 latach!

[Dodaję, bo prof. Mielczarski zawsze o tym zapomina, że są znane technologie magazynowania energii [elektrownie szczytowo – pompowe na wahania dobowe, wodór [też w magazynach podziemnych, jak metan] , metody chemiczne. Nie porównuj, Kolego, z całkowitym zapotrzebowaniem, lecz z jego wahaniami, tak dobowymi, jak sezonowymi !! MD]

Namawiam do nich „rządzących” bałwanów od 35 lat. Mirosław Dakowski].

Gaz zamiast węgla?

Jeśli mamy docelowo całkowicie zrezygnować z węgla, z którego pozyskujemy 61 proc. wytwarzanej w naszym kraju energii elektrycznej, to w pierwszym rzędzie należy odpowiedzieć sobie na pytanie, czym właściwie mamy go zastąpić? Teoretycznie mógłby być to gaz ziemny, z którego pozyskujemy obecnie 10 proc. konsumowanej w Polsce energii elektrycznej. Jednak nasze krajowe zasoby tego surowca energetycznego są niewielkie i związku z tym skazani jesteśmy na jego import. Taki stan rzeczy grozi tym, że w pewnym momencie możemy znaleźć się w takiej sytuacji, jak niegdyś Władysław Gomółka, który podobno ubolewał, że „gdybyśmy mieli więcej blachy, to produkowalibyśmy więcej konserw, ino mięsa nie mamy…”. My z kolei prawdopodobnie nie mielibyśmy dodatkowych kilkunastu miliardów metrów sześciennych gazu ziemnego dla nowo wybudowanych bloków elektrowni gazowych.

Wnioski końcowe

Obecnie wydajemy w kraju miliardy złotych na modernizację armii, co należy uznać ze wszech miar za słusznie, ponieważ bezpieczeństwo militarne kraju jest bardzo ważne. Niestety, prawdopodobnie niewiele osób zdaje sobie sprawę, że równie ważne jest bezpieczeństwo energetyczne kraju. Zresztą oba rodzaje bezpieczeństwa są ze sobą ściśle powiązane, bo jeśli chroniczne niedostatki podaży energii elektrycznej doprowadzą finalnie do wystąpienia potężnego kryzysu i w jego efekcie upadku gospodarki całego kraju, to fakt ten wpłynie w oczywisty sposób również na zdolności obronne całego państwa. Gwałtowny spadek PKB spowoduje, że po prostu nie będzie już pieniędzy na konieczne zakupy sprzętu dla armii i utrzymanie jej odpowiednio wysokiego stanu liczebnego. Załamie się także produkcja krajowego przemysłu zbrojeniowego.

Co zatem w zaistniałej sytuacji należy zrobić? Przede wszystkim trzeba raz na zawsze porzucić mrzonki związane z utopijną wizją możliwości całkowitego odejścia w polskiej elektroenergetyce od węgla. W kroku kolejnym należy wyrzucić ostatecznie do kosza plany likwidacji największej polskiej elektrowni cieplnej w Bełchatowie. Wręcz przeciwnie, wszystkie 11 bloków tej elektrowni o mocy 360 MW powinno zostać wymienione na nowoczesne bloki nadkrytyczne o półtora razy większej sprawności, niż mają te pracujące obecnie. Po takiej wymianie całkowita moc rozważanej elektrowni powinna zostać podniesiona do przynajmniej 8 GW. W ten sposób, spalając w Bełchatowie mniej więcej tę samą ilość węgla co obecnie, otrzymalibyśmy prawie 3 GW dodatkowej mocy elektrycznej, a jest to w zasadzie tyle samo, ile wynosi moc planowanej w Lubiatowie-Kopalinie elektrowni atomowej. Czyli po wymianie bloków elektrowni w Bełchatowie na nowoczesne bloki nadkrytyczne o odpowiednio większej mocy, 3 GW dodatkowej mocy elektrycznej mielibyśmy właściwie za darmo i żadna kontrowersyjna budowa elektrowni atomowej nie byłaby w naszym kraju w ogóle potrzebna.

Na rysunku 6 przedstawiono przewidywania PSE odnośnie przyszłego deficytu mocy dyspozycyjnej w polskim systemie elektroenergetycznym, który wywołany będzie likwidacją elektrowni węglowych. Jak widać, w roku 2040 spodziewany jest deficyt w wysokości ponad 13 GW. Zatem, aby przywrócić bilans mocy w krajowym systemie elektroenergetycznym, trzeba będzie w tym celu wyłączyć dosłownie połowę Polski. To wywoła wręcz niewyobrażalną katastrofę!


Rys. 6. Przewidywane braki mocy dyspozycyjnej w nadchodzących latach (źródło: https://businessinsider.com.pl/gospodarka/energii-w-polskiej-sieci-moze-zabraknac-operator-policzyl/57yv41h)

Nawet gdyby w roku 2040 zaczęły z pełną mocą pracować wszystkie trzy bloki elektrowni atomowej w Lubiatowie-Kopalinie o łącznej mocy 3 GW, to i tak deficyt mocy dyspozycyjnej przekraczałby 10 GW – wielkość wręcz niewyobrażalna.

Warto na koniec porównać jeszcze koszty budowy elektrowni węglowych z elektrownią atomową. Otóż budowa bloku węglowego o mocy 1 GW kosztuje obecnie około 8 miliardów złotych, a koszt budowy bloku jądrowego o tej samej mocy przekracza grubo 40 miliardów.

Ponadto warto jest wiedzieć, że na rynku wydobycia uranu w nadchodzących latach spodziewany jest potężny deficyt, co można zobaczyć na rysunku 7.

Rys. 7. Przewidywany deficyt na rynku wydobycia uranu w nadchodzących latach (źródło: https://independenttrader.pl/top10-wydarzen-2023-roku-z-perspektywy-inwestora-cz-1.html)

W związku ze spodziewanym deficytem uranu cena tego surowca energetycznego może już w niedalekiej przyszłości mocno wystrzelić w górę, ponieważ elektrownie będą skłonne zapłacić za niego dosłownie każdą cenę, bo jeśli wybudowało się już blok jądrowy za ponad 40 miliardów złotoch, to nie zrobiono to w tym celu, aby stał teraz bezużytecznie.

Zatem nasze nadzieje na tanią energię elektryczną pochodzącą z „pierwszej polskiej elektrowni atomowej” najprawdopodobniej już niedługo pękną jak bańka mydlana.

Opowieść o geodetach nieba, czyli jak mierzono Wszechświat.

Opowieść o geodetach nieba, czyli jak mierzono Wszechświat.

Autor: stan orda , 10 maja 2024 ekspedyt/opowiesc-o-geodetach-nieba-czyli-jak-mierzono-wszechswiat

Początek tytułowych pomiarów sięga połowy III wieku przed narodzeniem Chrystusa, czyli nieomal czasów 126 olimpiady  (lata 276-273 a.Ch.n.; łac.:  ante Christum natum). W miejscowości  Cyrene, która wówczas była jedną z greckich kolonii na afrykańskim wybrzeżu Morza Śródziemnego, urodził się Eratostenes, który jest zaliczany do grona najwybitniejszych myślicieli czasów starożytnych (obok Archimedesa, Euklidesa, Pitagorasa i Ptolemeusza).
(Cyrene; współcześnie libijskie Shahhat, położone, mniej więcej, w połowie drogi pomiędzy miastami Banghazi (Bengazi) a Tubruq (Tobrukiem);
Eratostenes; 275-194 a.Ch.n., filozof, geograf, matematyk, poeta. Edukował się w Liceum i Nowej Akademii w Atenach. Pracował w Bibliotece Aleksandryjskiej, a po śmierci Apolloniosa z Rodos objął w niej stanowisko Głównego Bibliotekarza (lata 246 -197 a.Ch.n.).

W oparciu o największe dziedzictwo słowa pisanego w świecie antycznym, które zgromadzone zostało w zbiorach Biblioteki Aleksandryjskiej, posiadł niebywale rozległą wiedzę o współczesnym mu świecie. Mógł w tym celu korzystać z danych źródłowych, jak np. bezpośrednie relacje napisane przez podróżników, kupców, żeglarzy, a również zapiski dowódców wojskowych lub ich kronikarzy, w tym uczestników kampanii wojennych Aleksandra Macedońskiego. I, oczywiście, dokumentów sporządzonych przez pokolenia logików, filozofów, matematyków, czyli myslicieli , którzy reprezentowali najbardziej różnorodne szkoły i koncepcje.

Dla niniejszego opowiadania istotne jest to, że Eratostenes zmierzył obwód i średnicę Ziemi z dokładnością różniącą się o mniej niż pięć procent od współczesnych pomiarów satelitarnych tych wielkości. Jest to wynik zadziwiająco dokładny, a możliwy był do uzyskania dzięki zastosowaniu poprawnej metody wykorzystującej stałe relacje geometryczne. Eratostenes ekstrapolował dane uzyskane metodą triangulacji zastosowanej lokalnie na rozmiar całej Ziemi. A oto jakiego rodzaju oprzyrządowanie miał do swojej dyspozycji: długość cienia rzucanego przez pręt w Aleksandrii oraz długość takiego cienia na dnie wyschniętej studni w Syene (dzisiejszy Asuan), w momencie gdy Słońce znajduje się w zenicie.

Eratostenes przyjął do swoich wyliczeń, iż obie miejscowości, które znajdują się w Egipcie, położone są na tej samej długości geograficznej. Nie jest tak dokładnie, ale odchylenie jest niezbyt znaczne i wynosi około 2,5 stopnia. Badacz przyjął poprawne założenie, że gdyby Ziemia była płaska, wówczas długość cienia rzucanego przez pręty o tej samej porze dnia, zarówno w Aleksandrii jak i w Asuanie, byłaby jednakowa. Rzecz jasna, długość rzucanego cienia była różna. Z otrzymanej różnicy wyprowadził kąt krzywizny Ziemi,  znając zaś  dystans dzielący od Syene do Aleksandrii (w linii prostej ok. 800 km) mógł obliczyć pełny obwód ziemski, a następnie promień planetarny. Przykład  Eratostenesa wskazuje, że najważniejszy jest pomysł, czyli znalezienie właściwej metody pozwalającej wykorzystać dane, które są dostępne. Wielu ludzi angażowało się w poszukiwanie najbardziej adekwatnej metody dla zmierzenia tego, czego nie dawało się pomierzyć bezpośrednio, a nawet przy braku właściwego punktem odniesienia. Ludzi takich określamy mianem naukowców.

Niemal wszyscy wiedzą, iż koncepcję heliocentryczną wprowadził do obrazu świata Mikołaj Kopernik, ale już daleko nie wszyscy, że znacznie wcześniej, bo w III wieku a.Ch.n., czyli 17 wieków przed kanonikiem z katedry we Fromborku, taki model wszechświata zaproponował Arystarch z Samos.
(320 – 250 a.Ch.n., astronom grecki urodzony na wyspie Samos; pracujący w Aleksandrii. Daty jego urodzin i śmierci są podawane z dokładnością plus minus 10 lat. Zaproponował heliocentryczny model układu planetarnego oraz poprawnie oszacował odległość od Ziemi do Księżyca i błędnie odległość od Ziemi do Słońca).

Arystarch, korzystając z wielkości kątowych cienia Ziemi podczas zaćmienia Księżyca, oszacował średnicę naturalnego satelity Ziemi oraz doń odległość. Uwzględniając poziom i rodzaj  przyrządów technicznego, którymi mógł dysponować dla określenia rozmiarów kątowych Księżyca i Ziemi oraz możliwej do uzyskania dokładności w obliczeniach wysokości kątowej „środka” Księżyca nad horyzontem, osiągnął więcej niż poprawny wynik, bliski współczesnym danym, uzyskiwanym przy wykorzystaniu teleskopów, satelitów oraz zaawansowanej techniki laserowej. Czyli  w tamtym czasie nikt nie zdołałby wykonać bardziej dokładnych obliczeń. Niestety, publikacje Arystarcha prawie w całości spłonęły wraz ze zbiorami Biblioteki Aleksandryjskiej, czyli zostały na bardzo długi czas zapomniane. Problem w tym, że należały one do koncepcji typu filozoficznego i nie mogły być podstawą wyliczeń pozycji planet w poszczególnych momentach roku. Oznacza to, iż koncepcja Arystarcha, w przeciwieństwie do koncepcji Kopernika, była ideą bez możliwości jej zastosowania w praktyce.

A właśnie model kopernikański umożliwiał tego rodzaju obliczenia. Ponadto propozycja Kopernika związana była z pilną potrzebą uproszczenia rachuby coraz dalej idących korekt wynikających z rosnącego niedopasowania modelu geocentrycznego do realnie obserwowanych pozycji planet. W modelu kopernikańskim nastąpiła zamiana punktu odniesienia dla obliczania pozycji obserwatora (z Ziemi na Słońce), co zdecydowanie uprościło życie np. kapitanom statków morskich.  Od codziennego ustalania pozycji na morzu poprzez określanie wysokości Słońca nad horyzontem bardzo wielu z nich traciło dosyć szybko wzrok w jednym oku, a wcale nie w wyniku starć z piratami).

Kryterium funkcjonalności powodowało, że model kopernikański znalazł zastosowanie praktyczne, bez względu na to, czy poprawnie odwzorowywał on rzeczywistość. Tak zasadnicza zmiana w postrzeganiu usytuowania Ziemi i miejsca człowieka we wszechświecie nie mogła odbyć się szybko i bez problemów. I mimo iż  model Kopernika miał już zastosowanie w praktyce, to wciąż paradygmatem decydującym o obrazie świata, aż do epoki lunet i teleskopów, były idealistyczne założenia Platona, Eudoksosa i Arystotelesa, oraz jako ich konsekwencja, skonstruowany przez Ptolemeusza geocentryczny model świata z jego centralnym miejscem – Ziemią.
(Eudoksos z Knidos, ok. 408 – 355 a.Ch.n., astronom, matematyk, filozof, geograf. Twórca koncepcji sfer dla wyjaśnienia ruchu Ziemi, Słońca, Księżyca oraz pięciu ówcześnie znanych planet)

Przez bardzo długie wieki uczeni zajmujący się astronomią nie byli w stanie wyobrazić sobie, iż gwiazdy są tak bardzo odległe od Słońca. Z tego względu decydującym argumentem za tym, iż to Ziemia, a nie Słońce stanowi centrum świata, był właśnie fakt, iż nie dawało się zauważyć żadnej zmiany w pozycjach gwiazd. Starożytni matematycy i astronomowie zdawali sobie sprawę, że gdyby Ziemia obiegała Słońce, wówczas musiałaby następować zmiana pozycji gwiazd przy ich obserwowaniu z różnych miejsc ziemskiej orbity wokółsłonecznej w przeciągu roku kalendarzowego. A skoro takich zmian nie dawało się zaobserwować, wysuwali oczywisty wniosek, że Ziemia „nie porusza się”. Zakładali, że gdyby Ziemia odbywała wokółsłoneczny pasaż, musieliby dostrzec zmianę miejsca gwiazd na niebie i zmierzyć  dla nich ich kąt paralaksy .
(paralaksa
w astronomii oznacza pozorną zmianę miejsca obserwowanego obiektu na niebie względem innych obiektów, związaną ze zmianą miejsca przez obserwatora; zob. Appendix pkt 2).
Metoda i rozumowanie starożytnych było prawidłowe, ale nie dysponowali wystarczająco zaawansowanymi instrumentami do zaobserwowania i zmierzenia takiego efektu z uwagi na faktyczny dystans do gwiazd, a co zatem idzie, niemierzalną w ich epoce wielkość paralaksy. Z tego właśnie powodu odrzucali model heliocentryczny, jako nie mający potwierdzenia logicznego jak i obserwacyjnego. Jak z tego wynika, nazwa „sfera gwiazd stałych” była do epoki teleskopów w pełni uzasadniona.

W modelu Ptolemeusza odległość do sfery gwiazd stałych (po przeliczeniu greckich stadiów/stadionów na kilometry) wynosiła ok. 80 milionów km, gdy w rzeczywistości odległość do najbliższej gwiazdy (widocznej gołym okiem) wynosi ok. 42 bilionów km. Czyli niedoszacowanie w modelu geocentrycznym wynosiło ponad pół miliona razy. Z kolei w modelu kopernikańskim, aby zachować założenie jego spójności, odległość z modelu ptolemejskiego musiała zostać powiększona do ok. 300 miliardów km, ale i wówczas, błąd oszacowania (odniesiony do dystansu od najbliższej z dostrzegalnych gwiazd) wynosił nadal ok. 130 razy. Należy zastrzec, iż rozmaici autorzy podawali rozmaite wielkości oszacowań dla takich odległości. Ja podaję wersję autorstwa XVII-to wiecznego astronoma -zakonnika Giovanni Battisty Ricciolli’ego SJ, który choć był przeciwnikiem teorii kopernikańskiej, to w zakresie dokładności pomiarów nie miał ówcześnie konkurencji.

Warto sobie uzmysłowić, iż 50 lat po śmierci Kopernika, czyli na początku XVII wieku, żyło w Europie zaledwie 10 uczonych, którzy przyjmowali jego model jako bardziej poprawny od geocentrycznego. I chociaż zaobserwowanie pojawienia się na nieboskłonie nieznanej dotychczas, nowej gwiazdy przez Tychona Brahe w AD 1572 oraz w następnych latach kilku komet, utworzyło rysę na idealnym świecie sfer arystotelesowskich, to konsekwencje tego mogły być dyskutowane wyłącznie w nielicznym światku astronomów.
(Tyge Ottesen Brahe; 1546-1601, astronom duński. Autor zmodyfikowanej koncepcji geocentrycznej)

Do faktycznego przełomu w dziedzinie obrazu kosmosu trzeba było zaczekać aż do początków epoki oka uzbrojonego, czyli do wiosny  AD 1610 i Galileusza, który korzystając z lunety o kilkukrotnym powiększeniu, ujrzał cztery księżyce Jowisza. Już kilka lat później zaczęto używać pierwszych lunet o kilkudziesięciokrotnym powiększeniu, a w latach 30-tych XVII stulecia pojawiły się pierwsze teleskopy astronomiczne. W końcu XVII wieku były już w użyciu teleskopy o długości tuby dochodzącej do 10 stóp.
 (stopa – ang. foot ; współcześnie jednostka miary o dł. 30,48 cm. Dawniej w różnych krajach jej długość wahała się w granicach 30 cm (plus minus 2 cm).

U progu epoki teleskopów rozpoznanie poprawnych odległości do ciał niebieskich i ich wielkości dotyczyło tylko Ziemi i Księżyca. Prawa Keplera poprawnie oddawały mechanikę nieba i wokółsłonecznego ruchu planet Układu Słonecznego, ale można było z nich wyprowadzić tylko względne odległości dla planet, a ich wszystkich od Słońca. Czyli, korzystając z proporcji keplerowskich można było ustalić, iż planeta A jest najbliżej Słońca, a planeta B jest trzy razy  dalej niż planeta A.

Ale  nie wiedziano jak   zmierzyć, ile wynosi w km odległość planety A od Słońca, a w konsekwencji odległości do innych planet. Oznaczało to, że nie istniał jeszcze sposób, który pozwalałby na określenie, jak duże są to obiekty i jak daleko się one znajdują. Na podstawie pewnych pośrednich wnioskowań, opartych na rozmiarach cienia Ziemi podczas zaćmień Księżyca, próbowano oszacować rozmiary i odległość do Słońca, ale nie dysponowano danymi  pozwalającymi na  stwierdzenie ich poprawności. W jeszcze większym stopniu niepewność taka odnosiła się do rozmiarów i odległości poszczególnych planet. Dopiero wykorzystanie do obserwacji teleskopów, najpierw soczewkowych (refrakcyjnych), a później także zwierciadłowych, spowodowało iż wszystkie problemy, dotychczas nierozwiązywalne, zostały rozstrzygnięte w dosyć szybkim tempie, czyli można było obliczyć odległości i wielkości głównych obiektów w Układzie Słonecznym.

Walnie przyczynił się do tego pierwszy dyrektor obserwatorium paryskiego. Gdy na arenie technicznych osiągnięć cywilizacji pojawiły się teleskopy, od razu zaczęły odgrywać decydującą rolę w badaniach nieba. Jak wiadomo, są to urządzenia duże oraz drogie i w zasadzie takie były zawsze. W drugiej połowie XVII wieku na zakup sporego teleskopu o długości tuby wynoszącej kilkadziesiąt stóp, stać było jedynie bogatych monarchów, a do takich należał bez wątpienia król Francji Ludwik XIV. Królewskie Obserwatorium w Paryżu wyposażył w kilka tych dużych  instrumentów i był bardzo zainteresowany badaniami Słońca, gdyż monarcha ten eksponował przecież publicznie swój wizerunek jako Król-Słońce. Ten rodzaj public relation stanowił istotny powód, iż ów król nie żałował grosza na badania w dziedzinie astronomii. W nowo wybudowanej placówce król zatrudnił od 1671 r. na stanowisku dyrektora tej placówki Giovanni Domenico Cassiniego, który specjalizował się, między innymi, w budowie zegarów słonecznych. Król  swoją pierwszą propozycję objęcia dyrektorowania w obserwatorium paryskim skierował do gdańskiego astronoma Jana Heweliusza, który jej nie przyjął.
(Giovanni Domenico Cassini; 1625-1712; włoski matematyk i astronom, dyrektor obserwatorium paryskiego w latach 1671-1712; odkrył cztery księżyce Saturna, pierścienie Saturna oraz zmierzył odległość od Ziemi do Marsa)
Cassini postanowił spróbować zmierzyć paralaksę Marsa i wówczas wyliczyć odległość do tej planety, wykorzystując nadarzającą się okazję, gdy latem AD 1672 planeta ta znajdzie się najbliżej Ziemi, a następnie odległość do Słońca, korzystając ze stosowanych w triangulacji prostych reguł trygonometrii. W tym celu należało wykonać jednoczesny pomiar kąta pod którym widać Marsa z dwóch odległych od siebie miejsc na Ziemi. Jednym z nich było paryskie obserwatorium, drugim zaś faktorie handlowe w Cayenne (Gujana Francuska), dokąd udał się drogą morską Jean Richer, współpracownik Cassiniego. Odległość pomiędzy Paryżem a Cayenne była podstawą trójkąta, którego wierzchołek stanowiła planeta Mars. Po wielu perypetiach, związanych z interpretacją danych, Cassini w AD 1673 ogłosił, iż odległość do Słońca wynosi 140 milionów km (wg współczesnych pomiarów wynosi ona 149,5 mln km). Czyli była to odległość 43 razy większa, niż przyjmowana w modelu kopernikańskim.

Astronomowie ówcześni zdawali sobie sprawę, że dokładność obliczeń przy zastosowanych metodach pomiaru może wzbudzać wątpliwości, toteż starali się potwierdzić lub zanegować osiągnięty wynik, ale otrzymywali rezultaty podobne do podanych przez Cassiniego. Rozmiar świata (tego najbliższego) bardzo wówczas wyogromniał, a co więcej, nie były to już tylko mocno niepewne szacunki odnośnie istniejących odległości. Chociaż nadal nie dało się liczyć bardzo dokładnie (precyzja przyrządów pomiarowych jeszcze tego nie umożliwiała), ale nie były to wielkości zupełnie dowolne i mniej czy bardziej wyimaginowane.

Jeszcze o jednym pomiarze warto wspomnieć, który będzie pełnić ważną rolę w dalszej części tej opowieści. Mniej więcej w tym samym czasie (AD 1676) duński astronom Olaf Roemer (1644-1710), jako pierwszy pomierzył prędkość światła i uzyskał wynik w granicach 75% aktualnej wielkości. Otóż zauważył on, iż czas zniknięcia księżyców Jowisza za tarczą tej planety zmienia się zależnie od odległości Jowisza od Ziemi. Założył, iż pozorne opóźnienie obrazu zaćmień wynika z prędkości światła docierającego do obiektywu teleskopu. Im Jowisz znajduje się dalej od Ziemi, tym większe jest takie opóźnienie. Otrzymał wynik wynoszący 225 000 km/sek., podczas gdy wg pomiarów współczesnych, uzyskanych z wykorzystaniem zegarów atomowych, promieni lasera, teleskopów kosmicznych i misji satelitarnych, prędkość światła w próżni została określona na 299 792 km/sek. Rezultat uzyskany przez Roemera był niezbyt dokładny, ale tylko taki stopień precyzji można było osiągnąć, przy zastosowaniu dostępnych wówczas urządzeń. Tak więc na początku XVIII wieku astronomowie znali odległość tylko do jednej gwiazdy, tj. do Słońca.

Podejmowane próby obliczenia paralaksy dla innych gwiazd, przy wykorzystaniu ówczesnych przyrządów nie dawały rezultatu, dlatego poszukiwano innego sposobu, który mógłby być użyteczny do tego celu. Skorzystano z pomysłu Izaaka Newtona, gdyż  on odkrył zasadę, która mogła zastąpić nieefektywne pomiary paralaksy. Zasadą taką była zależność, iż jasność źródła światła zmienia się zgodnie z „prawem odwrotności kwadratu”. Ilustruje to sytuacja, w której umieszczamy dwie świecące żarówki 100-watowe w jednakowej odległości od obserwatora, a następnie jedną z nich przeniesiemy na odległość dwa razy większą. Jasność obserwowana żarówki przeniesionej będzie 4 razy mniejsza niż żarówki, która została na poprzednim miejscu. Zasada ma również zastosowanie w sytuacji odwrotnej, czyli jeśli wiemy, że gdzieś świecą żarówki o tej samej mocy i zmierzymy odległość do jednej z nich (nasze Słońce), zaś z pomiaru jasności innej żarówki (gwiazdy) wyniknie, iż świeci ona 4 razy słabiej, to oznacza, że znajduje się ona dwukrotnie dalej, niż żarówka (gwiazda) do której znamy odległość. Ta zasada dawałaby poprawne wyniki, gdyby wszystkie żarówki (gwiazdy), które świecą z taką samą mocą, miały takie same rozmiary i na dodatek nie poruszały się. Z punktu dzisiejszego stanu wiedzy założenia takie były kompletnie niezgodne z rzeczywistością. Ale wówczas, z braku jakichkolwiek danych w tym względzie, początkowo przyjęto ten sposób.

Od momentu „podpowiedzi” udzielonej przez Newtona, astronomowie nie byli już skazani na korzystanie tylko z jednej metody opartej na pomiarach paralaksy. W latach 20-tych XVIII wieku angielski astronom Edmund Halley (ten od znanej komety) porównał zapisy o pozycjach gwiazd, znajdujące się w pismach Ptolemeusza, ze zmierzonymi przez siebie pozycjami tych samych gwiazd. Okazało się, że dla kilku gwiazd odchylenie było na tyle istotne, iż wskazywało na istnienie ich ruchu własnego. Wielkość odchylenia nie mogła być wyjaśniona brakiem precyzji zapisów dokonanych w starożytności, gdyż dla pozostałych przypadków zapisy odnoszące się do ich pozycji nie wskazywały na istnienie odchyleń. Dlaczego zatem naniesienie pozycji akurat dla tych kilku miałoby okazać się niepoprawne? W ten sposób, z mrowia gwiazd na niebie, można było wytypować te, dla których warto było spróbować wyliczyć wielkość  paralaksy. Halley spróbował, ale nie dał rady wyliczyć. Przyrządy, którymi dysponował,  miały wciąż zbyt małą rozdzielczość.

Pierwsze poprawne pomiary paralaksy dla  trzech gwiazd wykonane zostały dopiero w latach 1839-1840, czyli już w epoce zaawansowanych teleskopów i precyzyjnych siatek mikrometrycznych (siatka zakładana na okular teleskopu). Siatki te pozwalały na dokładne oznaczanie pozycji gwiazd na nieboskłonie, czyli dla astronomów stanowiły niezbędne oprzyrządowanie, bez którego wcześniej nie było możliwości wykonywania pomiarów z wystarczającą dokładnością. Poprawne pomiary paralaksy musiały ponadto uwzględnić i skorygować efekty wahania w ruchu Ziemi wokół Słońca (tzw. aberracja, którą wykrył angielski astronom James Bradley) oraz zakłócenia w ruchu Ziemi wokół własnej osi spowodowane tym, że Ziemia nie ma idealnie sferycznego kształtu (efekt nutacji). Okazało się, że wielkość zmierzonych paralaks stanowi ułamek sekundy kątowej, co oznaczało, że gwiazdy te, jakkolwiek relatywnie bliskie Słońcu, dzieli od nas niewyobrażalnie daleki dystans.
(wielkość kątowa; koło dzieli  się na 360 stopni, stopień odpowiednio o 60 minut, minuta 60 sekund, co oznacza , iż pełne koło zawiera 1.296.000 sekund kątowych)
Gdy astronomowie poznali odległości do  kilku gwiazd, mogli wyliczyć wielkość ich jasności absolutnej. Z obliczeń wynikło, że każda z nich świeci z inną mocą, wobec czego zasada podana przez Newtona nie może być powszechnie stosowana. Można byłoby ją zastosować jedynie w przypadku do jednorodnych grup gwiazd. Ale jaki parametr byłby charakterystyczny dla oceny stopnia jednorodności? Okazało się, że istnieje taka cecha.

Wskazał ją w początkach XIX wieku, bawarski chemik, optyk i konstruktor Joseph von Fraunhofer. Były to linie widmowe, które obserwowane są w widmie każdego gorącego ciała, gdy światło pochodzące od tego ciała rozdzielimy na pryzmacie. Gdy ciało, które jest rozżarzone, otacza atmosfera chłodniejszego gazu, wówczas gaz absorbuje w obrazie widma te kolory, które emitowałby sam, gdyby był rozgrzany do tej samej temperatury. W przypadku różnicy temperatur na obrazie widma występują ciemne prążki. Porównując rozkład prążków dla konkretnego widma, można stwierdzić jaki gaz (lub gazy) składają się na atmosferę np. gwiazdy. Każdy gaz absorbuje ściśle określone, swoiste częstotliwości widma, coś  jakby odcisk linii papilarnych danego obiektu (w naszym przypadku gwiazdy). A ponadto bez względu na to jak daleko się on znajduje, pod warunkiem, iż uzyskana jakość widma pozwoli na rozróżnienie w nim takich linii.
(Joseph von Fraunhofer ;1787-1826; fizyk i astronom bawarski, pierwszy zmierzył heliocentryczną paralaksę Słońca).
Można przyjąć, iż astronomia obserwacyjna przekształciła się wraz z wykorzystaniem, poza matematyką, także fizyki i chemii, w zaawansowaną naukę od momentu wyjaśnienia w pierwszej połowie XIX wieku przez austriackiego fizyka Christiana Dopplera przesunięć linii absorpcyjnych w widmach gwiazd. Doppler wykazał, iż ruch źródła światła w kierunku do obserwatora powoduje przesunięcie w stronę fioletowego koloru widma, zaś ruch od obserwatora przesunięcie w stronę czerwonego koloru widma. A gdy w XIX w. do badań kosmosu dołączyło się jeszcze wykorzystanie kolejnego wynalazku, jakim była fotografia, mogła na dobre rozpocząć się epoka astrofizyki.

Na progu XX wieku, astronomowie znali w przybliżeniu odległości zaledwie do kilkunastu gwiazd bliskich Słońcu, a możliwy do osiągnięcia stopień rozdzielczości w pomiarze paralaksy pozwalał na określanie odległości maksymalnie do 100 lat świetlnych, z marginesem błędu zwiększającym się wraz z mierzoną odległością. Pomiary dotyczące odległości obiektów bardziej oddalonych były bardzo niedokładne. I nadal nie znano odpowiedzi na pytanie, czy nasz Układ Słoneczny stanowi część struktury, będącej całym wszechświatem, ani też jak duże posiada ona rozmiary.

W  tekście często używany jest termin paralaksa. Jednak co takiego on oznacza w przystępnym wyjaśnieniu. Otóż pewnie każdy próbował patrzeć na jakiś przedmiot zakrywając raz prawe, a raz lewe oko. Jeśli ten przedmiot stał np. na półce znajdującej się w pewnej odległości od nas, a jeszcze na tej samej półce znajdował się obok np. wazon, wówczas patrząc na przedmiot, przy zmianie oka, widzielibyśmy go w innej odległości od wazonu. Wielkość różnicy tej odległości mierzonej od punktu odniesienia, czyli wazonu i miejscem, z którego patrzymy (w tym przypadku byłoby to miejsce danego oka), utworzy kąt określany jako paralaksa. W przypadku planet lub bliskich gwiazd, jednym takim okiem może być miejsce obserwacji położone na jednym kontynencie, drugim zaś na innym kontynencie. Mówimy wówczas o paralaksie geocentrycznej, mierzonej z miejsc znajdujących się na powierzchni Ziemi. Natomiast w przypadku gwiazd naszymi oczami będą odpowiednio te miejsca obserwacji, gdy Ziemia znajduje się na orbicie wokół Słońca w konkretnej dacie oraz w dacie o sześć miesięcy późniejszej (Ziemia będzie wówczas dokładnie po przeciwnej stronie Słońca). Taki pomiar określamy jako paralaksę heliocentryczną, gdyż w takim przypadku rozstaw „oczu” stanowi rozmiar średnicy wokółsłonecznej orbity Ziemi. Jeśli we wskazanych datach określimy położenie interesującej nas gwiazdy i zmierzymy różnicę jej odległości od punktu odniesienia (zazwyczaj będzie to pobliska jasna gwiazda), otrzymamy wielkość kątową pozornej zmiany miejsca gwiazdy, którą nazywamy paralaksą. Znając podstawę trójkąta, czyli średnicę orbity Ziemi oraz kąt pod jakim nachylone są dwa boki tego trójkąta, wówczas łatwo wyliczymy odległość do gwiazdy, korzystając z reguł trygonometrii. Precyzja takich pomiarów jest ściśle uzależniona od jakości, czyli  rozdzielczości oprzyrządowania technicznego, którym dysponujemy oraz  ścisłej synchronizacji w czasie momentu ich dokonywania.

Dla porównania podam, iż rozdzielczość oka nieuzbrojonego osoby obdarzonej normalnym wzrokiem wynosi ok. jednej trzydziestej stopnia, czyli dwóch minut kątowych. Odpowiada to możliwości rozróżnienia i odczytania liter o wysokości 3 milimetrów z odległości pół metra. A np. planeta Wenus, która dla obserwatora z Ziemi ma największą średnicę kątową swojej tarczy (poza Słońcem i Księżycem), posiada paralaksę o wielkości około pół minuty. Oznacza to, iż bez pomocy przyrządów optycznych wszystkie obiekty na niebie, poza Słońcem i Księżycem, postrzegamy tylko jako świecące punkty różniące się jasnością obserwowaną, ale nie zdołamy dostrzec ich rozmiarów kątowych, czyli rozmiaru tarczy tych ciał niebieskich. Ale dla pomiaru paralaksy bardziej odległych gwiazd także wielkość średnicy orbity ziemskiej nie była wystarczająca.

Ponownie pomocna okazała się właściwa metoda w osiągnięciu kolejnego etapu w mierzeniu odległości do poza słonecznych światów. Nieco wcześniej wspomniałem o zjawisku Dopplera, które wskazuje na to, czy poruszający się  względem obserwatora obiekt, oddala się od niego bądź przybliża. Widmo obiektu będącego w ruchu jest przesunięte w relacji do widma – wzorca dla obiektu nieruchomego. Czyli dla ziemskich obserwatorów to Słońce byłoby obiektem pozostającym w bezruchu, zaś inne gwiazdy wykazywałyby ruch własny. Gdy porównamy widmo jakiegoś pierwiastka występującego w atmosferze gwiazdy (np. sodu), kierunek przesunięcia w widmie w stosunku do widma-wzorca (widma słonecznego, albo widma otrzymanego w ziemskim laboratorium, jako wyniku spalania np. sodu), wskazałby nam, czy interesująca nas gwiazda przybliża się czy oddala względem  obserwatora znajdującego się w pobliżu Słońca. Ponadto dałoby się  określić szybkość takiego ruchu np. w kilometrach na sekundę.

Ale w praktyce nie występuje ruch gwiazd po obserwacyjnej linii prostej, gdyż wszystkie poruszają się względem Słońca pod różnymi kątami. Z tego powodu należało znaleźć jakiś sposób pozwalający na obliczenie, ile z tego ruchu przypada na właściwy kierunek. Pomiar możliwy do przeprowadzenia mógł dotyczyć wyłącznie dwóch parametrów, tj. przesunięcia widma oraz zmiany położenia gwiazdy na niebie, która jest wielkością wyrażaną w miarach kątowych. Bez znajomości odległości do gwiazdy nie można przeliczyć jej ruchu, wyrażonego w jednostkach względnych (kątowych), na prędkość tego ruchu w km/sek. Tak więc problemem do rozstrzygnięcia  pozostawało ustalenie odległości do gwiazdy w jednostkach miar bezwzględnych. Przyjęto założenie (słuszne), że gwiazdy w gromadzie poruszają się w spójny sposób po trajektoriach do siebie równoległych albo prawie równoległych. Efekt perspektywy powoduje, że gdy gromada gwiezdna w swoim ruchu przybliża się do Słońca, to jej wielkość rośnie, a gromada jakby puchnie, bowiem trajektorie gwiazd, niczym szyny kolejowe, rozbiegają się od siebie. Gdy oddala się od Słońca, efektem obserwacyjnym jest zbieganie się poszczególnych trajektorii w jeden punkt.

Jednak w przypadku pojedynczej gwiazdy efekt ten jest znacznie trudniejszy do zmierzenia. Oznaczenie punktu (teoretycznego środka gromady), w którym trajektorie gwiazd zbiegają się, pozwalało określić, jakie jest odchylenie uśrednionej trajektorii ruchu gromady od linii obserwacyjnej. Z kolei poznanie wielkości kątowej tego odchylenia umożliwiało obliczenie, jaka część rzeczywistej prędkości gwiazd przypada na ruch poprzeczny, a jaka na ruch wzdłuż kierunku obserwacji. Natomiast sumaryczną prędkość ruchu gwiazdy poznano z przesunięcia widma. Pozostawała wówczas do rozwiązania dosyć prosta rachunkowa zależność, a mianowicie jak daleko musi znajdować się taka gromada gwiazd, aby znana już, poprzeczna składowa jej prędkości, dała w ciągu roku efekt przesunięcia o tyle a tyle sekund kątowych (lub części takiej sekundy). Zob. Appendix pkt 3.

Zasadniczy przełom w astronomii XX wieku przyniosło szersze zastosowanie techniki fotograficznej i utrwalanie obrazów z teleskopu na światłoczułej kliszy. Można było na tej podstawie dokładnie pozycjonować poszczególne obiekty, porównywać ich położenie oraz zmiany jasności w okresach czasu określonych przez badaczy. Rozwinięcie techniki długotrwałych ekspozycji (naświetleń) pozwalało również na dostrzeżenie szczegółów w inny sposób niemożliwych do zauważenia. Na początku XX wieku Harvard College Observatory (Mass., USA) miało placówką obserwacyjną w peruwiańskim mieście Arequipa (Southern Observatory). Z tego obserwatorium przywieziono do Obserwatorium w Harvardzie zdjęcia południowego nieba, którego obiekty nie są widoczne z półkuli północnej. Pośród tych zdjęć znajdowały się fotografie Obłoków Magellana (zob. Appendix pkt 4). Astronomowie byli zgodni co do tego, że te Obłoki stanowią skupiska gwiazd, ale nie było pewności co do ich położenia względem Drogi Mlecznej. Powstały różnice zdań co do tego, czy  są one częścią naszej Galaktyki, czy też stanowią względem niej odrębną morfologicznie strukturę.

Analizę zdjęć przeprowadziła kobieta-astronom Henrietta S. Leavitt, która wyodrębniła w AD 1907 ok. 2 tys. gwiazd zmiennych, znajdujących się na zdjęciach Obłoków Magellana. Po dwuletniej obróbce  danych opublikowała listę ok. 1000 gwiazd zmiennych z Małego Obłoku oraz ok. 800 gwiazd z Dużego Obłoku. Wstępnie wyniki analizy dotyczyły 16 gwiazd, dla których określiła systematyczne okresy pulsacji, po czym powiązała je z jasnością gwiazd wg zależności, iż dłuższy okres pulsacji mają gwiazdy jaśniejsze.
(Henrietta Swan Leavitt (1862 – 1921), amerykański astronom pracujący w Harvard College Observatory w zespole Edwarda Pickeringa).
W AD 1912 H. Leavitt opublikowała dane dla kolejnych 25 gwiazd z Małego Obłoku z ustaloną zależnością okres – jasność. Rodzajem gwiazd o zmiennej jasności  były cefeidy, nazwane tak od gwiazdy Delta Cephei (zob. Appendix pkt.5), dla której okres zmienności poznano już pod koniec XVIII wieku i której charakterystyka odpowiadała parametrom cech badanych gwiazd z Obłoku Magellana. Tym samym, H. Leavitt udowodniła zależność, iż cefeidy o podobnej jasności absolutnej posiadają podobny okres zmienności. I jeśli poznamy stosunek zmienności dwóch cefeid, to jednocześnie poznamy dla nich relację jasności. Czyli jeśli gdzieś na niebie odkryjemy gwiazdę typu cefeida i zmierzymy jej okres zmienności, wówczas można dokonać oceny, jaką miałaby jasność, gdyby znajdowała się pośród gwiazd Małego Obłoku Magellana.

Zależność okres – jasność mógł zostać wykorzystany do wyznaczania odległości nie tylko w ramach Drogi Mlecznej, ale ze względu na jasność cefeid, także w odniesieniu do pobliskich galaktyk, w których mogła być zmierzona taka zależność dla znajdujących się tam cefeid. Wyniki pracy H. Leavitt stanowiły podstawę do wykonania nie tyle kroku milowego, co skoku “siedmiomilowego”, jeśli chodzi o dotychczasowe możliwości metod pomiaru odległości międzygwiezdnych. W wyniku odkrycia dokonanego przez H. Leavitt, cefeidy zaczęły  pełnić rolę tzw. świec standardowych (zob. Appendix pkt 6), wykorzystywanych do kalibracji odległości dla innych typów gwiazd i obiektów kosmicznych. H. Leavitt zmarła na raka w wieku 53 lat, i nie zdążyła zostać uhonorowana nagrodą Nobla, chociaż w pełni na nią zasługiwała. Niestety, kalibracja faktycznych odległości za pomocą cefeid nie mogła być zrealizowana w czasach odkrycia dokonanego przez H. Leavitt, gdyż nie było jeszcze możliwe zmierzenie odległości do żadnej ze znanych ówcześnie cefeid (zobacz: Appendix pkt 7) i, tym samym, nie można było obliczyć wartości dla ich jasności absolutnych. Nie znano także odległości do Obłoków Magellana. Tak więc zależności dotyczące odległości cefeid od Słońca mogły być tylko względne, czyli określały ile razy dalej lub bliżej są badane gwiazdy względem siebie. Ale H. Leavitt wytyczyła szlak, którym inni doszli dalej.

Jednym z tych pionierów, którzy postawili kolejny kamień milowy był Harlow Shapley, który od AD 1914 pracował przy największych ówczesnych teleskopach zwierciadłowych na Ziemi, których lustra miały średnicę najpierw 60, a od 1917 r. już 100 cali.Tym miejscem było Mt. Wilson Observatory w pobliżu miejscowości Pasadena w Kalifornii.
(Harlow Shapley;  1885-1972; doktorat z fizyki uzyskał na Uniwersytecie w Princeton, amerykański astronom, dyrektor Harvard College Observatory w latach 1921-1952, poprzednio, w latach 1914-1921, kierownik w Mt. Wilson Observatory).

Shapley wpadł na pomysł najprostszy z możliwych. Znana była już przecież dokładna odległość przynajmniej do jednej  gwiazdy, czyli do Słońca, a tym samym również wartość jego jasności absolutnej. Postanowił porównywać jasności cefeid do jasności Słońca i powyliczać dla nich jasność absolutną. Okazało się, iż cefeidy należą do kategorii najjaśniejszych gwiazd na niebie. Mając do dyspozycji nowoczesny i duży teleskop, H. Shapley zaczął poszukania bogatych źródeł cefeid. Zaobserwował, że najwięcej tych gwiazd znajduje się w gromadach kulistych. Był zatem przekonany, że po wytypowaniu gromad, w których cefeidy będą pełniły rolę świec standardowych, stanie się możliwe wyliczenie do nich odległości. Problem okazał się znacznie bardziej skomplikowany, gdyż dobrze określone okresy jasności cefeid udało mu się zmierzyć tylko dla trzech gromad, kilka innych pomiarów przeprowadził za pomocą innych gwiazd zmiennych, świecących trochę słabiej od cefeid, czyli gwiazd typu RR Lyrae (zob. Appendix pkt 8).

Dla pozostałych wykonał szacowanie odległości na podstawie arbitralnie określonych założeń, np. że najjaśniejsze gwiazdy w takich gromadach (bez względu na typ tych gwiazd) mają zbliżoną jasność absolutną. A w stosunku do najsłabiej widocznych gromad przyjął założenie, że każda z gromad kulistych ma podobne rozmiary absolutne. Porównując wielkości kątowe takich gromad do rozmiarów kątowych gromad dla których udało mu się zmierzyć odległość, oszacował dystans dzielący je od Słońca. Łącznie na 69 gromad, co do których założył,
iż wyznaczają rozmiary Drogi Mlecznej, aż do 41 z nich oszacował odległości na podstawie proporcji dla ich rozmiarów kątowych. W AD 1918 opublikował wyniki swoich wyliczeń, z których wynikało, iż Droga Mleczna jest olbrzymią strukturą gwiezdną o średnicy ok. 330.000 lat światła, zaś odległość Słońca od jej centrum wynosi ok. 65.000 lat światła. Oznaczało to, iż wszystkie widoczne przez teleskopy obiekty powinny mieścić się w ramach tej rozległej struktury. Inaczej mówiąc, powinna ona była stanowić cały wszechświat. Wszystkie gromady gwiezdne i mgławice, wliczając w to Wielką Mgławicę w Andromedzie, byłyby wówczas jej fragmentami. (zob. Appendix pkt 9)

Shapley posiadał dowód, że jest inaczej, ale był on z rodzaju tych, co „nie mieszczą się w głowie”. Otóż w AD 1885 pojawiło się widmo w Wielkiej Mgławicy w Andromedzie, które wskazywało, że jeśliby ta mgławica nie znajdowała się w obrębie Drogi Mlecznej, wówczas obserwowane widmo musiałoby należeć do obiektu o jasności ok. miliarda Słońc, czyli świecącego tak mocno, jak cała galaktyka (mała). Morfologia i ewolucja tego rodzaju obiektów nie były wówczas rozumiane. Nie znano natury wybuchów kończących życie masywnych gwiazd, później nazwanych terminem supernowa. Shapley zdawał sobie sprawę z tego, że pomiary na granicy rozdzielczości oraz odgórnie przyjęte założenia dla oszacowania odległości, muszą być obarczone błędem. Nieznana były jednak przyczyny oraz skala błędu. Należy go usprawiedliwić, gdyż ówczesna jakość aparatury fotograficznej i używanych klisz fotograficznych, na których można było uzyskać ekspozycje widm drogą naświetlania, nie może być porównywana z późniejszymi, a zwłaszcza współczesnymi ich parametrami. Niemniej H. Shapley był pierwszym badaczem, który za pomocą poprawnej metody oszacował rozmiar Drogi Mlecznej. Gdyby znany był mu wówczas cykl ewolucyjny poszczególnych typów gwiazd, wówczas zaobserwowanie wybuchu supernowa pozwoliło by mu na przedstawienie znacznie bardziej poprawnego modelu kosmosu.

Upłynęło zaledwie kilka lat, gdy zweryfikowane zostały założenia przyjęte przez Shapley’a. Wykazano, iż jedne z nich były zbyt uproszczone a inne całkiem błędne (zwłaszcza założenie, iż mgławice kuliste mają takie same rozmiary absolutne). Uproszczenia kumulowały się drogą przenoszenie błędu systematycznego, czyli powodowały, że błąd ten powiększał swoje rozmiary w kolejnych stadiach oszacowania. W efekcie został odrzucony obraz wszechświata proponowany przez Shapley’a. Stało się to w dniu 1 stycznia AD 1925 podczas corocznego, noworocznego spotkania w Waszyngtonie członków Amerykańskiego Towarzystwa Astronomicznego, na którym odczytano referat astronoma, który wolał być drugorzędnym astronomem, niż pierwszorzędnym prawnikiem i który dla  astronomii zrezygnował z zawodu prawnika (studia prawnicze na Uniwersytecie w Oxfordzie jako stypendysta Fundacji Rhodesa oraz studia z matematyki i astronomii na uniwersytecie w Chicago).

Astronom ten nazywał się Edwin Powell Hubble (1889-1953) i uznawany jest za jednego z najwybitniejszych astronomów XX wieku. Po powrocie z I wojny światowej, gdzie wojował przez parę miesięcy w AD 1917, podjął pracę w obserwatorium na Mt.Wilson w Kalifornii. Niedawno uruchomiono tam 100-calowy teleskop zwierciadlany (a dokładniej o średnicy zwierciadła 94,5 cala). Potem pracował w obserwatorium na górze Palomar (Kalifornia), gdzie w AD 1949 uruchomiono potężny teleskop zwierciadłowy o średnicy 508 cm (zob. Appendix pkt 10). W październiku AD 1923 w obserwatorium Mt. Wilson, E. Hubble wycelował tubę  100-calowego teleskopu w spiralne ramiona Wielkiej Mgławicy w Andromedzie. Po półgodzinnym naświetlaniu, a następnie wywołaniu kliszy z obrazem fragmentu Mgławicy, ujrzał wśród mrowia rozmazanych światełek, wyraźny obraz pojedynczej gwiazdy. Była to cefeida (potem okazało się, że miała jasność 7 000 razy większą od Słońca). Wystarczyło teraz tylko zarejestrować jej okres pulsacji (zmian jasności), aby przypisać jej jasność absolutną. Znając jasność widomą można już było z różnic w jasności widomej i absolutnej łatwo wyliczyć odległość do tej cefeidy, a tym samym do Mgławicy w Andromedzie.
W ciągu następnego roku E. Hubble, wykonując fotografie poszczególnych fragmentów tej Mgławicy, odnajdywał kolejne cefeidy, aby zweryfikować poprawność dokonywanych wyliczeń na większej liczbie przypadków. Pod koniec AD 1924 był prawdopodobnie jedynym człowiekiem na Ziemi, który wiedział, że poza Drogą Mleczną istnieją inne światy oraz że mgławice spiralne to bardzo odległe galaktyki. I że tych galaktyk jest bardzo wiele. W dniu 1 stycznia AD 1925 na wspomnianym posiedzeniu ATA w Waszyngtonie E. Hubble przedstawił wyniki swoich badań.

E. Hubble (przy pomocy Miltona Humasona) oraz Vesto M. Sliphera, który pracował w Obserwatorium Lovella, uzyskali dane wskazujące, że mgławice spiralne poruszają się z bardzo znacznymi prędkościami względem linii obserwacji, na co wskazywały pomiary tych prędkości uzyskane przy pomocy efektu Dopplera (kierunek przesunięcia linii dyfrakcyjnych). V. Slipher już w AD 1914 przedstawił pierwsze wyniki takich pomiarów, ale nikt, w tym także sam Slipher, nie potrafił wówczas zinterpretować takiego efektu.
(Vesto Melvin Slipher – 1875 – 1969, astronom amerykański, pracował w Lovell Observatory. Jako pierwszy wskazał na przesunięcia linii dyfrakcyjnych w widmach mgławic spiralnych (galaktyk) wskazujące na ich znaczna prędkość radialną w kierunku od obserwatora;
Lovell Observatory
– założone w 1894 r. w miejscowości Flagstaff w Arizonie (hrabstwo Coconino) przez fundatora Percivala Lovella, multimilionera i „fanatyka” astronomii).


W AD 1929 Hubble i Humason znali przesunięcia widm dla 46 mgławic spiralnych, zaś V. Slipher dla 39, z których prawie wszystkie wskazywały, iż mgławice spiralne oddalają się od Słońca (tj. od naszej galaktyki).

Trudno było znaleźć odpowiedź na pytanie, czy prędkość oddalania się jest skorelowana z odległością. Widmo cefeid było możliwe do zarejestrowania dla najbliższych kilku galaktyk, lecz pozostałe były zbyt odlegle. Znowu pojawił się problem, podobny do tego jaki rozwiązała H. Leavitt, a mianowicie co może stanowić dla takich pomiarów właściwą „świecę standardową”,  E. Hubble przyjął (podobnie jak to uczynił Shapley w przypadku gromad kulistych), że najjaśniejsze gwiazdy (niekoniecznie cefeidy) w galaktykach mają zbliżoną wartość jasności absolutnej. Znając odległość do kilku najbliższych galaktyk, zdołał określić na podstawie różnicy jasności widm takich gwiazd, odległości dla 24 galaktyk. Wówczas wyraźna stała się korelacja odległości galaktyk z szybkością ich oddalania się (ucieczki). Wyniki tych badań E. Hubble opublikował w AD  1929 r.

Dla astrofizyków  stało się wówczas jasne, że potwierdzona obserwacyjnie ekspansja wszechświata jest naturalną konsekwencją ogólnej teorii względności sformułowanej przez A. Einsteina oraz pasuje do jednego z modeli opartych na  niej oraz efektów z nią związanych opisanych przez Wilhelma de Sittera. Koncepcje teoretyczne znalazły swoje potwierdzenie obserwacyjne.

Ale skoro wszechświat się rozszerza, to oznacza, że w przeszłości był mniejszy. Jeśli byśmy puścili taki film wstecz, to musiał zaistnieć jakiś początek, od którego zaczęła się ekspansja. W drodze powyższego wnioskowania pojawiła się koncepcja Big Bangu, czyli Wielkiego Wybuchu, czyli  aktualnego kosmologicznego Modelu Standardowego. Otrzymywane w następnych latach wyniki obserwacji i ich interpretacje uszczegółowiały i jednocześnie potwierdzały słuszność zaproponowanego modelu. Jednym z kluczowych potwierdzeń  było  wyselekcjonowanie z ogromu fal elektromagnetycznych zalewających kosmos, tzw. temperatury promieniowania tła, dokonane w połowie XX wieku przez amerykańskich radioastronomów A. Penziasa i R. Wilsona. Były to  najdawniejsze możliwe do wykrycia ślady Big Bangu. E. Hubble oszacował wiek i rozmiar wszechświata (dostępnego obserwacjom) na 10-20 miliardów lat świetlnych. Zmarł w wieku 64 lat i także nie doczekał się nagrody Nobla..

Od tego czasu coraz doskonalsze instrumenty i techniki obliczeniowe, wyniesienie w kosmos teleskopów i wyspecjalizowanych laboratoriów, stosowanie optyki adaptatywnej, zbieranie danych we wszelkich możliwych do rejestracji zakresach widm, doprowadziło do stopniowego zwiększania dokładności w mierzeniu prędkości ucieczki galaktyk, czyli rozszerzania się wszechświata, jak również wszelkich innych danych astrofizycznych. Prędkość ekspansji mierzona jest za pomocą tzw. stałej Hubble’a. Jej wielkość na dzisiaj wskazuje, iż j rozmiar Wszechświata dostępny dla naszej obserwacji wynosi 13,8 mld lat., tylko należy dodać że chodzi o lata świetlne.
Tak wynika z obecnych założeń przyjętych do konstrukcji kosmologicznego Modelu Standardowego. Natomiast pozostaje zagadką, czy w XXI wieku będziemy zmuszeni do zmiany założeń dla obecnego Standardowego Modelu w kosmologii oraz jaki będzie rozmiar Wszechświata wg ewentualnego nowego modelu?

APPENDIX

1.
„Nova”
– gwiazda okresowo zmieniająca jasność, zwiększająca ją wielokrotnie wskutek wybuchowego odstrzelenia zewnętrznych warstw atmosfery. Jest to zazwyczaj przypadek ciasnego układu składającego się z normalnej gwiazdy i białego karła (sprasowanego jądra zdegenerowanej gwiazdy), gdzie wskutek oddziaływania grawitacji białego karla następuje ciągły przepływ powierzchniowych składników atmosfery gwiazdy (akrecja) do białego karła. Układ taki nazywa many jest kataklizmicznym. Powyżej pewnej gęstości progowej następuje wybuch tych warstw i obserwujemy na niebie niewidoczną dotychczas gwiazdę, gdyż jasność jej może wówczas wzrosnąć od 100 do 1000 razy. Mechanizm ten powtarza się albo do momentu rozerwania białego karła (supernowa), albo do ustania mechanizmu akrecji powierzchniowych warstw atmosfery z normalnej gwiazdy (warstwy głębiej położone są mocniej grawitacyjnie związane z gwiazdą i punktowe oddziaływanie grawitacyjne białego karła może nie być wówczas wystarczające dla kontynuowania mechanizmu akrecji). W pierwszej połowie XIX w. mierzono paralaksy do bliskich  Słońcu gwiazd  ciągu głównego.

2.
Friedrich Wilhelm Bessel
w 1838 r. podał wielkość paralaksy dla gwiazdy 61 Cygni (czerwony karzeł odległy o11,4 lat świetlnych od Słońca i o jasności siedmiokrotnie niższej od słonecznej);
Thomas Henderson w 1839 r. podał wielkość paralaksy dla gwiazdy alfa Centauri  (żółty karzeł takiego samego typu widmowego i podobnych parametrach fizycznych jak Słońce, odległy o 4,4 roku światła);
Friedrich von Struve w 1840 r. podał wielkość paralaksy dla gwiazdy alfa Lyrae (Wega); Wega jest karłem o białym widmie , o jasności 40 -krotnie większej niż Słońce, odległy o 25 lat świetlnych (nie mylić z “białym karłem” – dogasającym jądrem umarłej gwiazdy).

3.
Przesunięcie kątowe
; aby je zarejestrować potrzebne są zazwyczaj długoletnie obserwacje, których skumulowanym efektem jest pomiar zmiany położenia obserwowanego obiektu. Pierwszą w ten sposób zmierzoną odległość miała najbliższa Słońca gromada gwiezdna, czyli Hiady w konstelacji Byka. Gromada tworzy głowę Byka w konturze tej konstelacji i jest oddalona o ok. 150 lat świetlnych od Słońca. Natomiast dokładna (średnia) odległość do Hiad (plus minus 1 rok światła) została zmierzona dopiero w końcu XX w. w na podstawie danych fotometrycznych zebranych przez satelitę HIPPARCOS.

4.
Obłoki Magellana
– Wielki (LMC) i Mały (SMC), widoczne gołym okiem galaktyki satelitarne do Drogi Mlecznej, oddalone od niej o ok. 160.000 lat światła (Wielki) oraz ok. 200.000 l.św. (Mały). Zostały tak nazwane na cześć podróżnika i odkrywcy – Ferdynanda Magellana w XVI wieku. Poprzednio Europejczycy nazywali je Obłokami Przylądka (Amerigo Vespucci).

LMC (The Large Magellanic Cloud) – galaktyka nieregularna – jasność widoma 0,9 mag.;
średnica ok. 40.000 l.św.; masa  – max. 1,0 procent masy Drogi Mlecznej, tj. 6 -10 mld mas Słońca. Szacuje się, iż zawiera ok. 30 mld gwiazd;
SMC (The Small Magellanic Cloud) – nieregularna galaktyka karłowata – jasność widoma 2,4 mag.; średnica ok. 15.000 lat światła;  masa ok. 20% masy LMC (wg szacunków zawiera ok. 3 mld gwiazd);

5.
Delta Cephei – bardzo jasny żółty nadolbrzym w konstelacji Cefeusza, odległy od Słońca o ok. 900 lat światła, o okresie pulsacji wynoszącym 5,37 dnia, zmieniający swoją objętość oraz temperaturę w zakresie 5.500 K – 6.800 K i zmieniający ok. 2,5-krotnie siłę jasności widomej (w zakresie od 3,5 do 4,5 magnitudo). Delta Cephei jest systemem trzech gwiazd, główny składnik świeci ok. 3000 razy jaśniej niż Słońce, promień ma ok. 30-40 razy większy od Słońca, zaś masę ok. 5 razy większą);

6.
Świeca standardowa – obiekt o znanej gwiazdowej jasności absolutnej i odległości, służący do obliczania odległości do innych obiektów, których znanym parametrem jest tylko jasność widoma (obserwowana).
W galaktyce Drogi Mlecznej oraz pobliskich galaktykach rolę świec standardowych pełnią gwiazdy rodzaju cefeida i RR Lyrae. Określanie odległości za pomocą RR Lyrae jest możliwe do odległości w granicach kilku milionów lat świetnych, a za pomocą cefeid nawet do 50-60 milionów l. św. Natomiast na odległościach kosmologicznych (setki milionów i miliardy lat światła) rolę świec standardowych pełnią wybuchy supernowa typu Ia, (które mają bardzo zbliżoną jasność absolutną w maksimum), jak również rolę takich świec mogą spełniać najjaśniejsze galaktyki w grupach (gromadach) galaktyk.

7.
Cefeidy są to stare gwiazdy (wiek co najmniej 10 mld lat), które w swojej ewolucji minęły już fazę ciągu głównego (okres w którym gwiazda stabilnie spala wodór) i np. stały się czerwonymi olbrzymami. Po zejściu z ciągu głównego gwiazda zaczyna się najpierw kurczyć, wówczas rośnie jej temperatura. Ciepło przepływa (konwekcja) do zewnętrznych warstw atmosfery gwiazdy, gdzie znajdują się pojedynczo zjonizowane atomy helu (atom pojedynczo zjonizowany to atom z niedoborem jednego elektronu). Wzrost temperatury, a w jej konsekwencji szybkości ruchu cząstek w atmosferze gwiazdy i ich energii powoduje, że z atomów helu wybijany jest kolejny elektron i atomy helu znajdują się w stanie podwójnej jonizacji. W takim stanie atomy helu jeszcze wydajniej absorbują ciepło do chwili, gdy zewnętrzne warstwy atmosfery gwiazdy stają się nieprzepuszczalne dla dalszej konwekcji ciepła, otulając gwiazdę, niczym kokonem. Wówczas dostarczana wciąż energia cieplna zaczyna rozpychać zewnętrzną powłokę atmosfery gwiazdy. Gwiazda puchnie, gdyż rozszerza swoje rozmiary (promień) , niekiedy nawet stokrotnie. Taki wzrost objętości gwiazdy powoduje spadek temperatury w radykalnie zwiększonej objętości jej atmosfery, gwiazda się ochładza i staje się na powrót przezroczysta dla procesów konwekcji cieplnej. Atomy helu powracają do stanu pojedynczej jonizacji i gwiazda zaczyna się ponownie kurczyć. Cykl zaczyna się od początku. Procesy puchnięcia (rozdymania) i kurczenia atmosfery gwiezdnej sa powodem zmianami jej jasności. Najbliższą cefeidą jest Gwiazda Polarna (Polaris) w konstelacji Małego Psa , biało-żółty nadolbrzym odległy ok. 440 lat świetlnych od Słońca. Obserwacje wskazują, iż pulsacje tej gwiazdy zanikają i przestanie być niebawem (jak na kosmiczne standardy) cefeidą;

8.
RR Lyrae
– gwiazda zmienna w konstelacji Lutni (Lyra), odległa od Słońca o ok. 850 lat światła, niewidoczna gołym okiem (jasność widoma waha się w granicach plus 7,06 do plus 8,12 magnitudo), o jasności absolutnej 0,34 mag., o mocy promieniowania w zakresie światła widzialnego ok. 50 razy większej od Słońca, o okresie zmienności ok. 13 godzin. Okres zmienności gwiazd typu RR Lyrae wynosi max. 1,5 dnia, a różnice jasności widomej sięgają max. ok. 1 magnitudo (mag.). Wszystkie gwiazdy typu RR Lyrae mają wartość jasności absolutnej w granicach 0,3 – 0,6 mag., podczas gdy cefeidy są znacznie jaśniejsze,
a rozpiętość wartości dla ich jasności absolutnej osiąga nawet kilka magnitudo;

9.
Wielka Mgławica
M31, olbrzymia galaktyka spiralna, znajdująca się najbliżej Drogi Mlecznej samodzielna galaktyka. Do 2009 r. uchodziła za największą i najbardziej masywną galaktykę w Lokalnej Grupie Galakty., Oszacowano jej średnicę na 50,0% większą od Drogi Mlecznej i, stosownie do tego, większą masę. Ostatnio opracowane dane uzyskane w ramach misji kosmicznych obserwatoriów (Chandra i Spitzer) wskazują, iż szacowana dotychczas szybkość rotacji naszej galaktyki (Droga Mleczna) jest o 50-60% wyższa, co oznaczało by konieczność przeszacowania jej masy o taki sam wskaźnik. Tym samym Droga Mleczna miałaby rozmiary i masę porównywalne z M 31. Wielka Mgławica w konstelacji Andromedy jest najdalej położonym obiektem we Wszechświecie (dystans ok. 2,2 miliona lat światła od centrum Drogi Mlecznej) widocznym z powierzchni Ziemi okiem nieuzbrojonym.

10.
Mt. Palomar Observatory
– położone na górze Palomar w Kalifornii, wyposażone w jeden z największych teleskopów zwierciadlanych (średnia zwierciadła 508 cm). Był to największy teleskop do czasu uruchomienie w latach 1992-1996 zespołu dwóch teleskopów Keck’a, zlokalizowanych powyżej 4.000 m npm. na szczycie wygasłego wulkanu na Hawajach (Mauna Kea), posiadających średnice luster po 10,0 m. Teleskop dla obserwatorium na górze Palomar ufundował George Ellery Hale, dlatego nazwany jest teleskopem Hale’a. Obserwatorium Mt. Palomar tworzy zespół obserwacyjny wraz z obserwatorium Mt. Wilson. Utrzymanie i korzystanie z Teleskopu Hale’a należy do konsorcjum trzech placówek naukowo-badawczych. Są nimi: Kalifornijski Instytut Technologiczny (Caltech), Uniwersytet Cornell oraz Jet Propulsion Laboratory. Teleskop Hale’a ma lustro (zwierciadło) odlane z 17 ton szkła kwarcowego (wykonane w Saint Gobain we Francji), natomiast cały teleskop waży ok. 400 ton;

Piekielna przepowiednia the Economist z 2012 roku: Hamas i Bibi Netanyahu walczący na paralotniach.

Lotniowa «przepowiednia» Rothschildów z roku 2012

babylonianempirelotniowa-przepowiednia-rothschildow-z-roku-2012

Data: 9 Maggio 2024 Author: Uczta Baltazara

FOTO: Okładka gazety The Economist z 22 grudnia 2012 roku: Hamas i Bibi Netanyahu walczący na paralotniach.

Czy okładka magazynu The Economist z roku 2012 przewiduje atak Hamasu z wykorzystaniem lotni? Nie, ona niczego nie “przewiduje”. Czy sprawdziliście, kim są właściciele i dyrektorzy zarządu The Economist? – Są nimi między innymi Rothschildowie. Po prostu, oni mówią wprost o swoich planach.

Towarzyszący rysunkowi artykuł, który traktowany jest jak przewodnik turystyczny, mówi, że najszybszą drogą do piekła jest ciągłe popełnianie grzechów głównych bez odczuwania wyrzutów sumienia.

https://www.bitchute.com/embed/sZzOLkSX6uaO/?feature=oembed#?secret=z2LlheWT97

Władimir Putin został przedstawiony w piekle, gdzie wraz z syryjskim prezydentem Baszarem Assadem, irańskim prezydentem Mahmudem Ahmadineżadem, północnokoreańskim przywódcą Kim Dzong Unem oraz euro płynie w ognistej rzece pod nagłówkiem “Orientacyjny przewodnik do Piekła”.

Na rysunku obecny jest także prezydent USA Barack Obama i kanclerz Niemiec Angela Merkel; Obama pędzi w kierunku Putina na motorówce, a Merkel siedzi smutna na torach kolejowych nad rzeką Styks.

Całą tę chaotyczną scenę obserwuje diabeł z egzemplarzem The Economist w ręku.

INFO: znalezione w Sieci

Euro-szrot nadjeżdża – na lawetach ! Tusk rozwiązał problem Niemców, którzy nie mieli co zrobić z używanymi elektrykami

Euroszrot nadjeżdża! Mentzen: Tusk rozwiązał problem Niemców, którzy nie mieli co zrobić z używanymi elektrykami

9.05.2024 majstersztyk-tuska-rozwiazal-problem-niemcow-co-zrobic-z-uzywanymi-elektrykami

Donald Tusk
Donald Tusk. / foto: PAP

Nowy rządowy program, który ma wejść w życie jeszcze w tym roku, przewiduje rekordowe dopłaty do zakupu samochodów elektrycznych. Szef Nowej Nadziei Sławomir Mentzen twierdzi, że jest to działania głównie na korzyść Niemiec.

W środę w Katowicach szefowa MFiPR Katarzyna Pełczyńska-Nałęcz jako inną zmianę podejścia do KPO wskazała zastąpienie w rewizji zakazów czy nakazów – wsparciem. Przykłady to przekierowanie środków na ważne społecznie obszary z części pożyczkowej do dotacyjnej (np. opieka długoterminowa w szpitalach), a także usunięcie podatku od używania samochodów spalinowych i wprowadzenie dopłat do pojazdów elektrycznych.

Minister argumentowała, że to założenie jest tak pomyślane, aby nie powodować wykluczenia komunikacyjnego osób mniej zamożnych lub w obszarach niemetropolitalnych. Jednocześnie wsparcie elektryków jest profilowane: kierowane na pojazdy ze średniej półki, wyższe w przypadku jednoczesnego złomowania pojazdów nieekologicznych.

– I kolejny klocek do układanki: jeżeli inwestycja w produkowany w Polsce częściowo z polskimi technologiami samochód elektryczny Izera okaże się możliwa do realizacji i opłacalna, to oczywiście jest idealne zamknięcie koła, w którym te dopłaty od jakiegoś momentu idą już na samochody produkowane w Polsce. To jest idealne rozwiązanie: środki na Izerę pozostają w KPO – bo jest masa dezinformacji, że to zostało skasowane, a to jest nieprawda – podkreśliła feministra funduszy.

Rządowy pomysł w swoich mediach społecznościowych skomentował Sławomir Mentzen. Szef Nowej Nadziei i współprzewodniczący Konfederacji twierdzi, że program pomoże głównie Niemcom – pozbyć się używanych samochodów elektrycznych.

„Ale te 1,6 mld zł na dopłaty do zakupu używanych elektryków z Niemiec to majstersztyk. Nie wiedzieli Niemcy co robić z tymi używanymi elektrykami, których nikt nie chciał, to im Tusk problem rozwiązał :)” – napisał na X polityk.

Za lichwiarski kredyt z KPO dopłacą do… wraków z Niemiec, byle elektrycznych. Ci ludzie całkowicie i ostatecznie zwariowali – skomentował z kolei Tomasz Sommer: [[To woryginale md]

Zbrodnicze sekty w medycynie.

Sekty w medycynie. J. Jaśkowski MD.PhD.MS.

Nowa medycyna czy zniewolenie społeczeństwa? 

Podsumowanie.

Nauka jest to wiedza, która nieustannie się zmienia. Napisanie przed 30- laty pierwszego artykułu o oszustwach przemysłu farmaceutycznego, zepchnęło mnie w ślepy zaułek. Prawie „codziennie” odkrywam nowe sytuacje, jednoznacznie wskazujące, że dziedzina wiedzy zwana medycyną, przestała służyć społeczeństwu, jako dział przywracający im zdrowie i możliwość zaspokajania swoich potrzeb, a sprowadziła ludność do niewolniczej pracy, w celu wzrostu niekontrolowanych podatków – vide VAT, zapewniających zysk wąskiej grupie tzw. cwaniaków, czyli konsorcjum książąt niemieckich, ustabilizowanych w olbrzymich grupach kapitałowych zwanych BlackRock, Vongard, State i kilku innych. W każdej z tych grup, ok. 10 – 15% akcji ma House of Windsor, czyli Dom Saxe-Coburg-Gotha, Obecnie na czele tej grupy stoi najprawdopodobniej król Karol III angielski.

Ale od początku.

Pierwszą chorobą, rzekomo wirusową, wprowadzoną na rynki światowe, było „Wiotkie porażenie kręgosłupa” zwane także „Chorobą Heinego -Medina” czy „Poliomyelitis”.

A zaczęło się to tak:

Po raz pierwszy w nowożytnej historii, niemiecki lekarz Adolf von Strumpell [1853-1925] opisując leczony przypadek, podejrzewał chorobę zakaźną. Kiedy w okolicach Sztokholmu wystąpiło ok. 1031 podobnych przypadków w 1905 roku, taki paraliż uznano za epidemię. 

W 1908 roku austriaccy lekarze; Karol Landsteiner [1868 – 1943] i Irwin Popper [1879 -1935], jako przyczynę podali filtrowanego wirusa, ponieważ rzekomo udało im się zakazić małpę wydzieliną wirusa, wolną od bakterii.

W USA niejaki Simon Flexner [1863 – 1946], ten sam od brata ustanawiającego procedury medyczne dla Rockefellera, natychmiast potwierdził to ustalenie.

Był to drugi przypadek po ospie, że pomimo braku dowodów medycznych, objawy kliniczne przypisano wirusowi.

Przypomnę, że nie wykonano testów Kocha, a mikroskop elektronowy wynaleziono dopiero w 1954 roku.

Tak narodziła się nowa specjalizacja zwana wirusologią, która z każdym rokiem przekształcała się w sektę, ponieważ w owym czasie nie można było wyizolować żadnego wirusa. Była jednakże bardzo na rękę rozwijającej się chemii w rolnictwie. Pestycydy, herbicydy itd. były i są doskonałym źródłem zysków, a nie powodują żadnych strat i dzięki tej sekcie, przemysł rolno – chemiczny nie ponosi kosztów powikłań u ludzi.

Dziwnym bowiem trafem, dwa pierwsze przypadki opisane powyżej, miały miejsce w Europie i Vermont po wprowadzeniu arsenianu ołowiu, jako środka owadobójczego w 1892 roku.

Arsenian ołowiu wpływa na komórki układu nerwowego, powodując paraliż opisywany jako „polio”. Jak stwierdzono, paraliż miał miejsce u dzieci mających kontakt z arsenianem ołowiu.

W Stanach Zjednoczonych od 1916 roku zachorowania koncentrowały się na północno – wschodnim wybrzeżu, zwłaszcza w rejonie Nowego Jorku i Long Island. Analiza wykazała, że cukier pochodził z hawajskich plantacji trzciny cukrowej, na których masowo stosowano arsenian ołowiu od 1915 roku. Największe na świecie rafinerie znajdowały się w Queens i Yonkers. Te tereny, wraz z Brooklinem, odnotowały największą liczbę zachorowań. Zachorowania występowały masowo latem, w czasie wakacji, kiedy to dzieciaki objadały się watą cukrową.

Choroba w Danii i Niemczech rozpowszechniła się dopiero ok. lat 30. [~1930]

W Związku Radzieckim choroba pojawiła się dopiero po 1949 roku, po sprowadzaniu tych środków chemicznych z zachodu.

W Azji i Afryce do lat 1950 chorowali tylko biali mieszkańcy z ośrodków miejskich.

Po II wojnie światowej pojawiało się coraz więcej zachorowań. Zostało to powiązane z wprowadzeniem na rynek w czasie wojny, innego środka chemicznego zwanego dichlorodifenylotrichloroetanem, czyli popularnego DDT.

W latach 50. XX wieku, stosowano go w postaci aerozoli nawet w przedszkolach i szkołach, nie wspominając o wojsku oraz o wielkich obszarach „zamieszkiwanych” przez komary.

W Polsce stosowano DDT w szkołach i na koloniach w walce z wszawicą, posypując po prostu głowy dzieci tym świństwem. To, że przy okazji wdychały to to? A kogo to obchodziło. Wszy ginęły, a wirusa i tak nikt nie widział. A że czasami dzieci chorowały??

Porównując ilości letniego zużycia DDT na tych obszarach, stwierdzono bardzo ścisłą korelację; im więcej zużyto na tych obszarach DDT, tym więcej przypadków „polio” stwierdzano.

Kiedy po raz pierwszy w Niemczech w latach 1954/55 zastosowano eksperymentalną szczepionkę zawierającą neurotoksyczny wodorotlenek glinu, liczba przypadków porażenia wiotkiego u dzieci wzrosła o 500 procent.

Towarzystwa medyczne zachowały dyplomatyczne milczenie.

=========================

Przypomnę, w 1942 roku w Niemczech, stosowano przymusowo szczepionkę przeciwko błonicy. Liczba zgonów dzieci przekroczyła 242 000, czyli straty były większe, aniżeli pod Stalingradem. 

Przypomnę także, że ten dzielny lud germański, żyjący w cywilizacji bizantyjsko – pruskiej, w 1911 roku w samym Hamburgu wymordował ok. 11 000 własnych dzieci szczepiąc je przymusowo przeciwko ospie.

Dane te natychmiast ukryto w całej Europie i rozpoczęto bardzo dochodowy interes szczepionkowy przy pomocy sekty wirusologów, doskonale opłacanej. To doskonałe opłacanie „oficerów” szczepionkowych rozpoczęto w Anglii, w czasie przymusowych szczepień podczas „ospy” w latach 1870. „Oficer” taki  mógł otrzymać nawet 1000 funtów. W owym czasie lekarz zarabiał ok. 150 funtów rocznie. Podobny mechanizm przekupywania zastosowano w czasie pseudo-epidemii Covid-19, np w Polsce. Rekordziści zarabiali od 400 000 do 670 000 rocznie  [w owym czasie średnio zarabiano w Polsce  ok. 60 000 rocznie].

Ten gwałtowny wzrost zachorowań na „Polio” po wprowadzeniu szczepień, zmusił władze do zmiany definicji owej choroby. Wcześniej, każde porażenie wiotkie nazywano „polio”. Odkrycie, że witamina C podawana dożylnie lub domięśniowo, [nie doustnie], powoduje wyzdrowienie już w okresie 24 – 48 godzin, doprowadził do powstania nowej definicji tej choroby.

Od 1955 roku za „Polio” uznawano stan chorego utrzymujący się ok. 30 dni. Tak więc każdy chory, który otrzymał witaminę C i wyzdrowiał znikał ze statystyki. Cwaniacy szczepionkarscy przypisywali to szczepionce.

Jak podałem pierwotnie, nazywano to  „ostrym porażeniem wiotkim”  lub zespołem Guillaina- Barrego.

Kampanie szczepień nie powstrzymywały tej choroby. Wręcz odwrotnie. Dowodem tego jest masowe morderstwo za pomocą szczepionki B.Gatesa w Indiach i Pakistanie na przełomie 2011/12 roku. W czasie jednej kampanii zamordowano ok. 70 000 dzieci, a zachorowało ok. 500 000 dzieci. Dopiero zastrzelenie ośmiu szczepionkarzy przez zrozpaczonych rodziców, przerwało te masowe mordy, a za Gatesem wystosowano list gończy.

Trzeba przypomnieć także, że zarówno w Indiach np. w Bophalu, jak i w Pakistanie, umiejscowiono wielkie fabryki pestycydów, DDT itp.

Musisz sam, Dobry Człeku zrozumieć, czy ta akcja wirusologów była tylko wynikiem pomyłki, czy też doskonale się wkomponowuje w sprawę depopulacji ludności, wymyśloną w 1770 latach przez Malthusa i realizowaną przez określone „elity”?

Czy też chodzi tylko o maskowanie zatruć przemysłu chemicznego.

W celu lepszego zrozumienia problemu przytoczę jeszcze jeden szeroko nagłaśniany przypadek „choroby wirusowej” jaką była „grypa hiszpańska”.

Jeszcze wymowniejszym jest fakt, że nigdy ta „straszna” epidemia nie trafiła na czołówki ówczesnych gazet w tamtych czasach!!!

Jeszcze większy problem powstaje jak przegląda się lokalną prasę np. Gazety z Bostonu, trzeciego miasta o największej liczbie zgonów. Wielkość zgonów nie przekroczyła 5000 osób. Jest to bardzo odległa liczba od rzekomych 500 000, podawanych później. O  ”Wielkiej Pandemii”  panującej w owych czasach nikt nie wspomina w pamiętnikach.

Jak obecnie ustalono, choroba rozpoczęła się w Fort Raily w Kansas, wielkiej bazie szkoleniowej żołnierzy przygotowywanych do wysłania do Europy i szczepionych przeciwko tyfusowi. Wielu żołnierzy po tych szczepieniach zaczęło chorować i umierać. Wspominają o tych faktach liczne listy żołnierzy, pamiętniki, wyniki sekcji zwłok pułkownika dra Wiliama Welcha i patologów z Instytutu Patologii Sił Zbrojnych, Archiwa historyczne Kansas, Archiwa Nany i Public Health Service Archives.

Najciekawszą sprawą jest fakt, że wolontariusze, opiekujący się chorymi rekrutami, myli ich, pobierali wydzielinę z nosa i gardła chorych, wkładali ją sobie do nosa, czy gardła i nie chorowali.  

Pochylali się nad nimi i nie chorowali.

Pobierali wydzielinę, odwirowywali ją i wstrzykiwali zdrowym ochotnikom – oni także nie chorowali.

 Ze 118 ochotników, ani jeden nie zachorował!!!!

Sprawdzenie przez Kate Daly z wiadomości Fox doniesień gazetowych na temat rzekomej hiszpańskiej grypy, ujawnia zaskakujące dane.  W pierwszym okresie doniesienia o ofiarach są bardzo nieliczne i sumarycznie nie przekraczają łącznie   100 000 . Jednak z każdym kolejnym rokiem wydawania tych gazet, liczba ofiar wzrasta. I tak  w 1920 roku, liczba ofiar wzrosła już do 500 000. W 1941 roku, czyli w dwadzieścia lat później, liczbę ofiar określano już na 10 000 000  [dziesięć milionów] na całym świecie. W 1975 roku liczba ta, w prasie, podwoiła się do 20 milionów. Mike Leavitt DHS w 2005 roku zwiększył te liczbę do 38 milionów, a CDC  obecnie utrzymuje, że w1918 roku na hiszpańską grypę zmarło ponad 50 milionów. 

W Polsce, największa znachorka warszawska z Państwowego Zakładu Higieny, Instytutu Zdrowia Publicznego, niejaka Lidia Brydak, oczywiście profesur, podawała, że na hiszpańską grypę zmarło od 50 do 100 milionów ludzi !!!

Taki jest poziom merytoryczny tej Instytucji.

=============================

I tak można by ciągnąć opowieść o oszukiwaniu ludzi chorobami zakaźnymi przez następne dziesiątki stron. W tej sytuacji ograniczę się tylko do cytowania wybranych fragmentów z czasopism naukowych, dziwnym trafem omijanych przez dziennikarzy głównego nurtu ogłupiania ludności.

Moje wpisy będą dotyczyły  tzw. epidemii koronawirusa dlatego, że jak uczy doświadczenie, wszelkie prace naukowe mają tendencje do znikania z półek bibliotek publicznych, nie wspominając o znikaniu z internetu.

I tak, kolejność cytowanych  prac będzie przypadkowa.

Dr Rynn Cole, patolog, ze stanu Idaho, właściciel jednego z największych laboratoriów – Cole Diagnostics w Idacho zanotował dużo szokujących skrzepów krwi, pojawiających się u zaszczepionych. Nanocząsteczki lipidowe i mRNA zawarte w zastrzykach preparatu Covid-19 indukują organizm do wytwarzania niebezpiecznych białek kolczastych, które zwiększają ryzyko zapaleń mikro i makro włóknistych zakrzepów krwi.

Jak wiadomo, ani Pfizer, ani Moderna nie sprzedawały swoich produktów mRNA, przed wprowadzeniem przymusu szczepień w 2020 roku. 

Jak wiadomo, także w Polsce, już na tydzień przed ogłoszeniem światowej epidemii, zabroniono przeprowadzania sekcji zwłok zmarłych i utylizowano je bez śladu. Przezornie likwidowano dowody przestępstwa!!!

Dr Cole stwierdza jednoznacznie, że sama nanocząsteczka lipidowa jest toksyczna. Jeszcze gorsze efekty powoduje wstrzyknięcie zastrzyków owych do ludzkiego organizmu. Ludzkie komórki nie wytwarzają tego białka. Skłonienie ludzkich komórek do wytwarzania białka o znanej cytotoksyczności, toksyczności dla organizmu ludzkiego,  stanowi olbrzymi problem nie tylko naukowy.

Nanocząsteczka lipidowa, która przemieszcza się wszędzie w organizmie człowieka, jest bardzo niebezpieczna, ponieważ nie można kontrolować dokąd zmierza. To może spowodować problemy zarówno sercowe jak i mózgowe.

Badania FDA potwierdzają, że preparaty mRNA na Covid -19 szybko zwiększają wystąpienie drgawek u dzieci. Badania przeprowadzone  po podaniu zastrzyku dzieciom w wieku od 2  do 5 lat, natychmiast zwiększyły ryzyko wystąpienia u nich drgawek gorączkowych.

Nawet badania przeprowadzone przez Uniwersytet Medyczny w Białymstoku udowodniły, że po zwykłym szczepieniu białko CRP wzrasta do stu kilkudziesięciu, przy normie do pięciu i utrzymuje się ten stan przez kilka dni. Pomimo tych oczywistych faktów, zespół naganiaczy nadal twierdzi, że „szczepionki” są bezpieczne.

Szczepionki na Covid są nie tylko bezużyteczne, ale i niebezpieczne. W nowym artykule podano, że „Wariant SARS-Cov-2 wymyka się szczepieniom.”

Praca udowadnia, że wariant SarsCov-2 szybko się powiela i nie jest blokowany przez szczepionki. Badania przeprowadzone w Massachusets General Hospital i w Harvardzie udowodniły,  że pojawiły się warianty „oporne na szczepionki” zgodnie z przewidywaniami z 2000 roku włoskiego biologa Franco Trinca oraz francuskiego mikrobiologa Luca Montagnera. Obaj naukowcy zginęli nagle w niewyjaśnionych okolicznościach.

3 kwietnia 2024.

Szwajcarski prawnik Philip Krause złożył zaktualizowaną skargę do prokuratury w imieniu 37 poszkodowanych przez szczepionkę mRna na Covid.

Skarga stwierdza: należy natychmiast podjąć pilne środki przymusu, przeszukanie pomieszczeń Swissmedic, zająć „szczepionki” zawierające mRNA, w celu ochrony przed nielegalnymi i ryzykownymi zastrzykami mRNA.

Skarga została założona 14 lipca 2022 roku przez prawnika z  Zurichu, mecenasa Ph.Kruse jako 300-stronicowany dokument, także w imieniu sześciu bezpośrednio poszkodowanych osób.

W związku z przewlekaniem sprawy przez prokuraturę, sprawę 14 listopada 2022r. nagłośniono publicznie. Strona internetowa Corona Complaint określa pierwotną skargę jako „skargę karną” . Stwierdzono w niej: „mamy do czynienia z największym niebezpieczeństwem, a nawet obrażeniami dla zdrowia ludzkiego , jakie kiedykolwiek miało miejsce w Szwajcarii. Ponieważ niebezpieczeństwo to nadal istnieje, pogłębione przez  przedłużenie zezwoleń na stosowanie zastrzyków w mRNA covid, zespół zaktualizował skargę karną 1.0 o dodatkowe źródła”.

A w Polsce mamy 44 000 radców prawnych, ponad 27 000 adwokatów, ponad 10 000 prokuratorów, sędziów i panuje zgodne zbiorowe milczenie.

Czy to jeszcze są prawnicy?

Zawiadomienie karne 2.0 wpłynęło do prokuratury szwajcarskiej, w związku z panującą ciszą w prokuraturze, 07 lutego 2024. 28 marca 2024 roku Zespół d/s Skargi Koronowej udostępnił publicznie dokument skargi.

W Polsce na konferencji w sejmie ujawniono nazwiska tzw. „ekspertów” rządowych i kwoty, które pobierali od koncernów farmaceutycznych. Podobne łapówki otrzymywały Izby lekarskie. Były to wielkości rzędu kilkuset tysięcy złotych. Stąd takie nagonki na nieszczepionych.

J. Jaśkowski MD.PhD.MS.

cdn.

Więcej w 2, 5 i 6 tomie „ABC Medycyny”

Pogłośność jasna przejdzie do historii zaraz po chorobie filipińskiej

Michalkiewicz o występie Kierwińskiego. „Pogłośność jasna przejdzie do historii zaraz po chorobie filipińskiej”

9.05.2024 poglosnosc-jasna-przejdzie-do-historii-zaraz-po-chorobie-filipinskiej

W jednym z najnowszych komentarzy Stanisław Michalkiewicz wziął na tapet słynny już występ szefa MSWiA Marcina Kierwińskiego podczas Dnia Strażaka. Publicysta „zdiagnozował” u niego „pogłośność jasną”.

Michalkiewicz przypomniał, że niedawno był dzień św. Floriana. – A święty Florian, jak wiadomo, jest patronem strażaków. No i z tej okazji odbyła się uroczystość wielka, w której wziął udział Pan minister Kierwiński. Nie tylko wziął udział Pan minister Kierwiński, ale wygłosił przemówienie – przypomniał.

– Zaraz po wygłoszeniu tego przemówienia pojechał na komendę rejonową policji i tam kazał sobie zrobić badania alkomatem. Oczywiście, alkomat niczego nie wykrył. No ja myślę, jak przyjechał sam minister spraw wewnętrznych na komisariat policji, to sierżant sam w podskokach… Jasne, że alkomat zawczasu był przygotowany, żeby nic nie wykrył. Jasne. Ale natychmiast się pojawiły fałszywe pogłoski, że Pan minister Kierwiński był pijany – wskazał.

– Nie, Pan minister Kierwiński nie tylko zaprzeczył energicznie, pokazał to badanie alkomatem, potem nawet podobno w szpitalu sobie krew zbadał. No, tam też wiadomo, że doktorzy to już wiedzieli z góry, jaki wynik tam ma być. Że ma być neutralny całkowicie – dodał.

– Pan minister Kierwiński zagroził, że każdego, kto będzie tutaj rozpuszczał fałszywe pogłoski, jakoby był pijany podczas tego święta strażaków z okazji świętego Floriana, to będzie zaciągał przed niezawisłe sądy. No a niezawisłe sądy, to wiadomo, zaczną sypać piękne wyroki, o taki chociażby jak na kolegę Ziemkiewicza, który tam został skazany na cztery miesiące ograniczenia wolności i pięć tysięcy złotych grzywny, znaczy na cel społeczny ma przeznaczyć, to i tak, muszę powiedzieć, że w jego przypadku sąd rejonowy okazał się łaskawy (…) – ocenił Michalkiewicz.

– Otóż co się okazało? Okazało się, że podczas, akurat podczas jego (Kierwińskiego – przyp. red.) przemówienia wystąpił taki pogłos. No i w związku z tym, ponieważ lekarze zabrali głos, również tacy po stronie oczywiście Pana ministra Kierwińskiego – myślę, że Pan minister Kierwiński im tego nie zapomni – zabrali głos, że na pewno, bo to specjaliści od, że tak powiem, stanów takich nietrzeźwości, zabrali głos i oświadczyli ponad wszelką wątpliwość, że absolutnie Pan minister Kierwiński był trzeźwy – dodał.

– Jeden taki pan doktor ze szpitala praskiego trochę przedobrzył chyba w swojej tej obronie, Bo powiedział, że Pan minister Kierwiński był trzeźwy, ale że powinien zbadać się, czy nie robi mu się coś w głowie. No proszę Państwa, to co mu się może robić w głowie? W głowie to mu się może robić pogłośność jasna – ironizował Michalkiewicz.

– Pogłośność jasna to jest taka dolegliwość podobna do choroby filipińskiej, która kiedyś dotknęła Pana prezydenta Aleksandra Kwaśniewskiego, tam mu się rzuciła nie na szyję tylko na goleń. No i to straszne katiusze przechodził Pan prezydent Kwaśniewski tam na cmentarzu w Charkowie akurat ten atak tej choroby filipińskiej go dopadł, aż to budziło współczucie – wspominał.

– No i proszę Państwa, jak ktoś nie będzie chciał wierzyć w pogłośność jasną, to natychmiast doktorowie zdiagnozują u niego schizofrenię bezobjawową. No bo to nowa jednostka chorobowa tutaj się upowszechni. Pogłośność jasna przejdzie do historii zaraz po chorobie filipińskiej – skwitował Michalkiewicz.

USA: Czynnik G – to inaczej inteligencja, względnie zdolności poznawcze

Czynnik G – to inaczej inteligencja, względnie zdolności poznawcze (kognitywne).

W domenie psychologii testowanie ludzkiej inteligencji należy do najbardziej wiarygodnych narzędzi, służących do przewidywania przyszłości – stanowi swoiste ukoronowanie tej dziedziny nauki. Jeśli koncept IQ jest niepoprawny, wszystkie inne twierdzenia w psychologii też są niepoprawne.

– Steve Stewart-Williams (link)

Inteligencja wywiera potężny i rozległy wpływ na stratyfikację społeczną, względnie podziały klasowe. Jej efektów nie da się wytłumaczyć wykształceniem rodziców czy warunkami ekonomicznymi, w których chowały się dzieci. Wbrew obiegowej opinii, oddziaływanie szeroko rozumianego “środowiska” na nasze wyniki w nauce i późniejszy poziom zamożności jest stosunkowo słabe.

– Gary N. Marks (cytat, link)
– Michael O‘Connell & Gary N. Marks (cytat, link)

Spośród blisko 70 faktorów uśredniony iloraz inteligencji danej nacji jest najlepszym wyznacznikiem rozwoju ekonomicznego w skali globalnej. Wzrost IQ populacji o 1 punkt koreluje z 7.8 proc. przyrostem wskaźnika produktu krajowego brutto. – George Francis & Emil O.W. Kirkegaard (cytat, link)

Oceniając rzecz z perspektywy indywidualnej, prawdopodobnie nie ma drugiej zmiennej, która w sposób tak konsekwentny wykazywałaby związek z przestępczością oraz innymi formami zachowań antyspołecznych jak inteligencja. – Kevin M. Beaver & Joseph A. Schwartz (cytat, link)

Bardziej biologiczne cechy takie jak kolor skóry (odsetek czarnych) wygenerowały najsilniejszą korelację z brutalną przestępczością, podczas gdy wskaźnik dochodu, tj. zmienna socjoekonomiczna – najsłabszą. – Donald I. Templer & J. Philippe Rushton (tabela, link)

Czynnik G to inaczej inteligencja, względnie zdolności poznawcze (kognitywne).

W amerykańskich realiach pomiary robione na ogromnych, reprezentatywnych próbach niezmiennie od dekad wykazują, że  przeciętna rozbieżność w ilorazie inteligencji między rasą czarną i białą przyjmuje wartość d Cohena ≈ 1.00, co przekłada się na ~15 punktów IQ różnicy, a zatem 1 odchylenie standardowe w rozkładzie empirycznym wyników testów, natomiast średnia rozbieżność między subsaharyjską Afryką a Europą i Ameryką Północną sięga niemal 30 punktów. Konsensus w tej kwestii jest ugruntowany i nie podlega dyskusji, zobacz: Warne (tabela, cytaty, artykuł), Jensen & Reynolds (tabela, artykuł), Rushton (tabele, książka), Roth et al. (tabela, metaanaliza), Weiss et al. (cytat, artykuł), Hunt (książka), Frisby & Beaujean (cytat, artykuł), Hu et al. (tabela, artykuł), Lasker et al. (cytat, artykuł) czy Fuerst et al. (cytat, artykuł). Optymistyczne rokowania części badaczy odnośnie stopniowego zanikania międzyrasowych dysproporcji w inteligencji (łączone z “Efektem Flynna”) zawsze były przedwczesne i nieuzasadnione, patrz Rushton & Jensen (cytat, artykuł), Williams (cytat, artykuł), Platt et al. (cytaty, artykuł) czy Nijenhuis & Flier (cytat, metaanaliza). W ocenie laika 15-punktowa przewaga z korzyścią dla białych wydawać się może trywialna, jednak statystyczne i przede wszystkim praktyczne konsekwencje istnienia rzeczonej asymetrii są w makroskali Stanów Zjednoczonych kolosalne.

(źródło, diagram 10.1)

Znając wartości procentowe konkretnych przedziałów (link), załączona wyżej grafika informuje nas, że

  • raptem ~16% amerykańskich Murzynów ma IQ > 100 (dla białych odsetek ten wynosi średnią ~50%);
  • raptem ~3% amerykańskich Murzynów ma IQ > 115 (biali ~16%);
  • ~65% amerykańskich Murzynów ma IQ < 90 (biali ~25%);
  • ~35% amerykańskich Murzynów ma IQ < 80 (biali ~10%), co oznacza, że nie przebrnęliby nawet przez sito rekrutacyjne do armii, ponieważ stwarzaliby zagrożenie dla siebie i innych;
  • ~16% amerykańskich Murzynów ma IQ < 70, co sugeruje intelektualne upośledzenie (biali ~3%);

Test inteligencji zaprojektowany przez Davida Wechslera (link, tabela 3) pokazuje z kolei, że

  • 3.6% białych i 18% czarnych ma IQ < 75 (stosunek ~5:1);
  • 21.9% białych i 59.4% czarnych ma IQ < 90 (stosunek ~2:1);
  • 53.8% białych i 15.7% czarnych ma IQ > 100 (stosunek ~1:3);
  • 27.9% białych i 3.8% czarnych ma IQ > 110 (stosunek ~1:7);
  • 5.4% białych i 0.2% czarnych ma IQ > 125 (stosunek ~1:27);

Dla krańcowo prawej strony ogona rozkładu sytuacja wygląda następująco (skalkulowane na podstawie tabeli 4.3, link):

  • IQ > 120: biali 11.14%, czarni 1.10%, stosunek ~1:10 (Azjaci 17.67%);
  • IQ > 125: biali 5.68%, czarni 0.40%, stosunek ~1:14 (Azjaci 10.36%);
  • IQ > 130: biali 2.59%, czarni 0.13%, stosunek ~1:20 (Azjaci 5.54%);
  • IQ > 135: biali 1.05%, czarni 0.04%, stosunek ~1:26 (Azjaci 2.70%);
  • IQ > 140: biali 0.38%, czarni 0.01%, stosunek ~1:38 (Azjaci 1.19%);
  • IQ > 145: biali 0.12%, czarni 0.00% (Azjaci 0.47%);
  • IQ > 150: biali 0.03%, czarni 0.00% (Azjaci 0.17%);

Dlaczego te liczby są ważne? Bo spośród wszystkich powszechnie akceptowanych i dających się skwantyfikować zmiennych to właśnie IQ oferuje największy potencjał prognostyczny w takich kluczowych dziedzinach życia i dla tak istotnych zjawisk jak poziom świadomości zdrowotnej, skłonność do antyspołecznych zachowań, przebieg edukacji, sukcesy w nauce, osiągnięcia zawodowe, talenty przywódcze oraz umiejętność akumulowania majątku w okresie dorosłym (szerzej na ten temat do poczytania tutaj). W rezultacie dodanie komponentu w postaci pomiarów inteligencji do rutynowego zestawu zmiennych kontrolnych sprawia, że wiele najbardziej rażących nierówności socjoekonomicznych między przedstawicielami rasy białej i czarnej w USA ulega drastycznej redukcji lub kompletnie zanika. Krótko mówiąc, wmiksowanie IQ do regresji przekreśla szanse na postawienie kategorycznej tezy o “systemowym rasizmie” jako rzekomej przyczynie dominacji białych nad Murzynami. Jest to główna, aczkolwiek rzadko werbalizowana przesłanka, która kieruje postępowaniem lewoskrętnych intelektualistów, gdy ci ignorują czynnik G w swoich pracach albo wręcz zaprzeczają jego doniosłej roli w rozwoju danej subpopulacji. Ich oficjalna argumentacja jest oczywiście taka, że segregowanie ludzi wedle kryteriów inteligencji nosi znamiona (pseudo)naukowego rasizmu i oni z racji swego “oświecenia” nie zamierzają brać udziału w tym haniebnym procederze.

WYBRANE PRZYKŁADY ODDZIAŁYWANIA IQ NA KONKLUZJE BADAŃ
(znacznie więcej obserwacji tu)

  • skorygowanie modelu o inteligencję całkowicie niweluje dysproporcje w dochodach między czarnymi i białymi w Ameryce: Farkas & Vicknair (cytat+tabela, artykuł), Kagawa (artykuł);
  • dopasowanie modelu o inteligencję odwraca (ze szkodą dla białych) związek na linii rasa-dyskryminacja przy zatrudnieniu w tym sensie, że biali mężczyźni, znajdujący się na identycznym szczeblu IQ co czarni, doświadczają relatywnie gorszego traktowania na rynku pracy: Nyborg & Jensen (artykuł);
  • po skorygowaniu modelu o inteligencję (szacowaną przy wykorzystaniu ogólnego testu klasyfikacyjnego armii/AGCT) rozziew w tygodniowych i rocznych zarobkach między czarnymi i białymi mieszkańcami stanów południowych w latach czterdziestych XX wieku kurczy się w zależności od sposobu wprowadzania brakujących statystyk o odpowiednio 72-76% i 78-97%: Carruthers & Wanamaker (cytaty+tabela, artykuł);
  • po skorygowaniu modelu o inteligencję (mierzoną za pomocą baterii testów kwalifikacyjnych sił zbrojnych typu ASVAB lub AFQT) czarni mężczyźni notują wyższe wskaźniki zdawalności egzaminów uniwersyteckich i częściej dostają dyplomy ukończenia studiów niż ich biali rówieśnicy: Herrnstein & Murray (cytat, rozdział), Cameron & Heckman (cytat, artykuł);
  • dodanie parametru IQ do finalnego modelu wydłuża czas edukacji czarnoskórych kobiet i mężczyzn w stosunku do “ilości” edukacji, którą otrzymują biali: Lang & Manove (cytat+wykresy, artykuł);
  • uwzględnienie inteligencji w modelu likwiduje wszelkie rasowe różnice w międzypokoleniowej, ekonomicznej, wertykalnej mobilności społecznej: Mazumder (cytat+wykres, raport), Acs (cytaty, raport), Mazumder (cytat+wykresy, artykuł);
  • skorygowanie modelu o inteligencję eliminuje różnice w długości zasądzanych wyroków: Simon (tabela+cytat, artykuł);
  • wkalkulowanie inteligencji do modelu zmniejsza niemal do zera przepaść między czarnymi i białymi, jeśli chodzi o względne ryzyko aresztowania i uwięzienia: Beaver et al. (artykuł), Beaver et al. (artykuł);
  • skontrolowanie modelu o inteligencję oraz impulsywność powoduje, że kolor skóry recydywisty przestaje korelować z prawdopodobieństwem jego ponownego aresztowania: Schwartz & Beaver (tabela, artykuł);
  • korekta o inteligencję i agresywne predyspozycje skazańców ujawnia, że uprzedzenia rasowe przy zasądzaniu wyroków śmierci są artefaktem statystycznym, powstałym na drodze niepełnej kalibracji bazowego modelu: Heilbrun et al. (cytat, artykuł);

(cytat z Wikipedii, zarchiwizowany 9 lipca 2022)

Negowanie mocy predykcyjnej IQ w generowaniu i podtrzymywaniu różnic międzygrupowych prowadzi do czegoś na wzór zbiorowej paranoi, czyli kolektywnego przeświadczenia, iż oto tajemnicze, wrogie siły działają za naszymi plecami i mimo nieustających prób rugowania z przestrzeni społecznej wszelkich przejawów dyskryminacji oraz uprzedzeń rasowych, ciągle utrwalają nierówności na polu edukacji lub w dostępie do dobrze płatnych zawodów.

Jest to później idealny grunt dla rozrostu wielopokoleniowych frustracji, podejrzeń i nienawiści, co w połączeniu z masowymi transferami ograniczonych środków publicznych na chybione bądź nieefektywne programy pomocowe tylko pogłębia poczucie zniweczonych nadziei. Miliony dolarów rocznie wydawane są na wydumane interwencje czy realizowanie mrzonek o “podnoszeniu wyników w nauce”. Niestety, na skutek rasowych implikacji badań dotyczących wpływu IQ i obaw, że w razie poruszenia tego tematu spadnie na nich środowiskowy ostracyzm, amerykańscy decydenci dalej będą udawać, że głaz ten można wtoczyć na szczyt.

USA: Korelacja między poziomem biedy, kolorem skóry i przestępczością

korelacja-miedzy-poziomem-biedy-kolorem-skory-i-przestepczoscia

Jak postaram się za chwilę pokazać na przykładzie USA, skala i natężenie przestępczości wśród bogatych, wykształconych czarnych oraz białej, niewykształconej biedoty różnią się drastycznie. Przepaść jest tu niekiedy wręcz kolosalna.

  • Szansa, że czarnoskóry mężczyzna z wykształceniem średnim bądź niższym z przedziału wiekowego 25-34 (tradycyjnie podgrupa najbardziej narażona na ryzyko zabójstwa) padnie ofiarą morderstwa z broni palnej jest 14x większa niż dla porównywalnie wyedukowanych białych mężczyzn. Mało tego: szansa, że młody Murzyn po studiach z tych samych widełek zginie od kuli jest 30x większa niż dla białych, którzy skończyli uniwersytet (cytat, artykuł).
  • Odsetek najbiedniejszych białych uczniów, tymczasowo wydalanych dyscyplinarnie z najgorzej dofinansowanych szkół publicznych (K-12), jest niższy niż odsetek czarnych uczniów karanych w taki sam sposób i uczęszczających do najbogatszych placówek edukacyjnych (7.3 vs 7.5 proc., tabela, raport).
  • Biali mieszkańcy Chicago z biednych domów i ubogich dzielnic mają zauważalnie niższe wskaźniki zabójstw niż bogaci czarni z dobrze sytuowanych rodzin (tabela, artykuł).
  • Czarni mieszkańcy Filadelfii z najbogatszych obszarów miasta notują blisko 16x wyższe wskaźniki napaści z użyciem broni palnej aniżeli ich biali odpowiednicy. Ujmując tę kwestię inaczej: czarni z górnych warstw społecznych doświadczają wskaźników napaści na poziomie białych mieszczuchów z dolnych warstw społecznych (tabela, artykuł).
  • Amerykańskie dzielnice klasy średniej zasiedlone w większości przez ludność czarnoskórą rejestrują ponad czterokrotnie wyższe wskaźniki morderstw z broni palnej niż dzielnice klasy średniej okupowane w większości przez białych: Among middle class neighborhoods, the rate of gun homicides is more than four times higher in neighborhoods with mostly black residents than neighborhoods with mostly white residents (link).
  • Inne źródło i znowu to samo: pomimo iż dla wszystkich grup demograficznych przeciętna liczba zabójstw rośnie wraz z zagęszczeniem biedy, to Murzyni pozostają jedyną rasą, która cechuje się nienaturalnie wysokimi wskaźnikami wiktymizacji (artykuł).
  • W makroskali młodzi czarnoskórzy mężczyźni wychowywani przez czarnych milionerów, należących do 1 procenta najzamożniejszych ludzi Ameryki, trafiają do więzień tak samo często jak biali, dorastający w biednym środowisku robotniczym i/lub standardach klasy niższej, tj. w gospodarstwach domowych, których roczne zarobki nie przekraczają pułapu $36 tysięcy (za NYT: Black men raised in the top 1 percent – by millionaires – were as likely to be incarcerated as white men raised in households earning about $36,000). W cytowanym artykule pada inny jeszcze (eufemistyczny) komentarz: “Czarni chłopcy mają problemy z porzuceniem stereotypu murzyńskiego kryminalisty, nawet jeżeli mieszkają w dostatnich warunkach socjoekonomicznych” (Simply because you’re in an area that is more affluent, it’s still hard for black boys to present themselves as independent from the stereotype of black criminality.) Autor opublikował później te wyniki w recenzowanym czasopiśmie (zobacz wykres, artykuł).
  • Za “The Washington Post” – Poor white kids are less likely to go to prison than rich black kids (biedne białe dzieci rzadziej lądują za kratkami niż ich bogatsi czarni rówieśnicy):


(statystyki pochodzą z tekstu Zawy et al. “Race, Wealth and Incarceration”, 2016)

Podsumowując: skład rasowy populacji jest zdecydowanie najlepszym prognostykiem nasilenia przestępczości. Im więcej Murzynów, tym wyższe rejestrowane wskaźniki rozbojów, morderstw i napaści. Pomiary ubóstwa absolutnego, rynkowych stóp bezrobocia czy przywilejów klasowych zazwyczaj albo słabo korelują z przemocą, albo generują niestabilne i niespójne rezultaty (cytat, książka). Konkluzja ta nie ogranicza się tylko do wielkomiejskich jurysdykcji w Ameryce (cytaty, artykuł), ale dotyczy też całej puli hrabstw (cytaty, artykuł) oraz wszystkich pięćdziesięciu stanów (tabela, artykuł / tabela, artykuł / wykresy, raport). Ba, na przekór bezrefleksyjnie powielanym mitom, popularny wśród ekonomistów i socjologów indeks Giniego (papierek lakmusowy rozkładu nierówności dochodowych w danym kraju) również nie sprawdza się jako uniwersalne i systematyczne wyjaśnienie przestępczości (cytaty, macierz korelacji, metaanaliza / cytaty, metaanaliza / wykresy, analiza); nie jest on nawet tożsamy z odczuwaniem frustracji przez ludzi, czyli z faktyczną percepcją nierówności społecznych, która mogłaby ewentualnie napędzać zabijanie (tabela, artykuł). Co gorsza, w przypadku morderstw wnioski, jakie wyciąga badacz, są dodatkowo uzależnione od wyboru źródłowych statystyk: inne rezultaty generują dane ONZ, inne WHO, a jeszcze inaczej wychodzi z bilansów Banku Światowego (wykresy, artykuł). Krótko: rozważania socjoekonomiczne są wewnętrznie sprzeczne i mętne. Nieporównywalnie bardziej rygorystyczne wskazówki odnośnie fenomenu występowania przemocy oferuje zgłębianie ludzkiego genotypu.

Z szerokiego spektrum badań nad udziałem czynników genetycznych w zróżnicowaniu agresji wyłania się obraz, w którym komponent dziedziczny odpowiada za minimum ~50 proc. wspomnianego zróżnicowania (ZGMiS / metaanaliza / cytaty z tego artykuł). Zdolność kontrolowania własnych impulsów i panowania nad stresem (co wiąże się bezpośrednio z wybuchami agresji) także jest w większości dziedziczna (cytat, metaanaliza) – podobnie jak skłonność do antyspołecznych zachowań (cytat, metaanaliza), która w przypadku np. groźnych uczniów manifestuje się karnym wydalaniem ich ze szkół (cytat, artykuł). Dalej: istnieje powszechna zgoda co do tego, że asymetrię w mierzalnej wartości inteligencji u przedstawicieli rasy czarnej i białej można przynajmniej w połowie [1] wytłumaczyć bagażem genetycznym (cytat, sondaż / cytat, metaanaliza / podsumowanie) [2][3][4][5][6], a jak wiadomo, średnia inteligencja wśród członków danej grupy ma potem w sensie praktycznym wymierne przełożenie na jej osiągnięcia cywilizacyjno-militarno-techniczne (cytat, edytorial), indeksy przestępczości (artykuł) tudzież ryzyko aresztowania/uwięzienia (cytat, artykuł) [7] – i to w kompletnym oderwaniu od realiów socjalno-bytowych (cytaty, artykuł).

U podłoża większości aktów przemocy
nie leżą problemy ekonomiczne.

– Barry Latzer (link)

Zwalczanie biedy trzeba zacząć
od zwalczania przestępczości.

– The Baltimore Sun (link)

Bill O’Reilly jest zbyt łagodny
[w krytykowaniu czarnej patologii].

– Don Lemon, CNN (link)

David M. Kennedy, profesor kryminologii z nowojorskiej Wyższej Szkoły Prawa Karnego im. Johna Jaya, odpowiada na pytanie, czy jest możliwa redukcja przestępczości w murzyńskich dzielnicach Ameryki metodą stopniowej poprawy warunków socjoekonomicznych:

Odtwarzacz video

00:00

01:39

The President Speaker Series – David M. Kennedy (28/03/2014)

Pytanie: Wielu ludzi jest zdania, że przestępczość powinno się zwalczać u samych jej źródeł, niwelując rozwarstwienia społeczne, podnosząc jakość kształcenia młodzieży i tym podobne. Jak to stanowisko współgra z twoim podejściem do zagadnienia?

Odpowiedź: Z racji wychowania i osobistych predyspozycji, jak również z powodu specyfiki wykonywanego zawodu sam byłem onegdaj zwolennikiem takiego myślenia. Światopogląd ten został jednak brutalnie zweryfikowany w połowie lat 80. zeszłego wieku po wizycie w dzielnicy Watts na południu Los Angeles i pięciominutowym spacerze po lokalnym rynku narkotyków. W sytuacji kiedy gangi ostrzeliwują okoliczne budynki, gdy na każdym rogu ulicy toczą się walki o dominacje i gdy czarnoskóre staruszki muszą dosłownie barykadować się we własnych domach z obawy przed grasującymi na zewnątrz młodocianymi oprychami – forsowanie pomysłu, że w takiej sytuacji można podnosić poziom nauczania, sprowadzać inwestorów czy zachęcać ludzi do kupowania nieruchomości albo renowacji już istniejącej zabudowy… Mówimy tutaj o realiach, w których dzieciaki przestają chodzić na lekcje, bo ścieżka wiodąca do ich szkoły przecina terytorium gangu. Zatem czysta idea, że oto można naprawić wszystko u podstaw na drodze polepszenia kondycji socjoekonomicznej, jest w istocie kuriozalna. W takim środowisku nic nie da się zrobić. Doświadczenie to postawiło na głowie całe moje dotychczasowe zapatrywania. Dopóki dzielnice te nie zaznają ukojenia, rozumianego jako brak przestępczości, nigdy nie będzie można otwierać tam szkół, wspierać polityki prorodzinnej czy odbudowywać ekonomii. Nie nakłonisz właściciela supermarketu, aby przeniósł swój sklep do miejsca, gdzie ludzie boją się wyjść z domu na zakupy.

Kennedy sygnalizuje tu udział sprzężenia zwrotnego: aberracyjnie wysoka przestępczość prowadzi do erozji warunków bytowych ludności, co z kolei prowadzi do dalszej eskalacji przemocy. Jego inicjatywy prewencyjne i długoletnie obserwacje sugerują, że znaczna większość napaści / morderstw jest skutkiem okoliczności, na które można wpłynąć bez potrzeby dokonywania super kosztownych reform strukturalnych. Wystarczy jedynie dotrzeć do względnie niewielkiej subpopulacji najbardziej zhardziałych i aktywnych kryminalistów, którzy nakręcają spiralę śródmiejskich strzelanin. Stąd proste wnioskowanie, że korzystne zmiany w sferze gospodarczo-socjalnej są ubocznym produktem malejących chronologicznie wcześniej wskaźników przestępczości, nie zaś wymogiem koniecznym do zainicjowania ich spadku.

Analityk harvardzkiej Szkoły Administracji Publicznej im. Johna F. Kennedy’ego, Thomas Abt, w wywiadzie dla “The Harvard Gazette” (link):

Argumentacja, że w celu zredukowania przestępczości w amerykańskich miastach trzeba w pierwszej kolejności rozwiązać problem biedy, nie jest wspierana przez materiał dowodowy. W rzeczywistości konkluzje w odwrotnym kierunku wydają się bardziej przekonujące. Coraz lepiej rozumiemy, że ekspozycja na przemoc stanowi jeden z podstawowych mechanizmów, utrzymujących ludzi w błędnym kole ubóstwa. Przemoc wpływa na każdy aspekt ich życia – edukację, zdrowie, zatrudnienie, wszystkie te rzeczy na raz.

Obszary zamieszkane przez czarnych w USA nie popadają w ruinę dlatego, że panuje w nich bieda – murzyńskie miasta bankrutują i pogrążają się w ubóstwie, bo ucieka stamtąd kapitał i ewakuuje się baza podatkowa (zjawisko white flight na przykładzie choćby powojennej historii Detroit). W konsekwencji nikt nie chce tych rejonów odwiedzać, nikt nie chce się tam osiedlać, otwierać sklepów, warsztatów, parków, kin czy restauracji. Wszystko w obawie przed atakiem tubylca uzbrojonego w maczetę lub Glocka. Kryminolog Barry Latzer w monografii “The Rise and Fall of Violent Crime in America” wymienia przestępczość (w tym zwłaszcza rozboje) jako główny czynnik izolujący Murzynów od reszty społeczeństwa, utrwalający rasowe stereotypy oraz napędzający oddolne procesy formowania się gett w obrębie amerykańskich metropolii. Ponieważ w USA jest to temat tabu, o którym publicznie nie wolno dyskutować, autor miał problemy z domknięciem książkowego kontraktu (więcej tu).

Naturalnie ofiarami murzyńskiej przemocy padają nie tylko biali czy Azjaci, ale także ci czarni mieszkańcy, którzy mają coś wartościowego do zaoferowania swojej sąsiedzkiej wspólnocie i na skutek szalejącego bandytyzmu zmuszeni są do migracji. Na str. 49 specjalnego wydania chicagowskiego miesięcznika “Ebony” z sierpnia 1979 roku wielkimi literami wybito nagłówek “ZNISZCZENIA W MIASTACH”, pod spodem zaś umieszczono anegdotkę z życia:

Na rogu South Side w Chicago kobieta ucięła sobie pogawędkę z pewnym kioskarzem o swej przyjaciółce. “Nie mogę jej winić. Włamali jej się do domu, ukradli dwa auta z podjazdu, więc wyniosła się na przedmieścia”. Tematem ich rozmowy była czarna przestępczość oraz to, w jaki sposób przyczynia się ona do odpływu klasy średniej z czarnych dzielnic. Równie dobrze owa kobieta mogłaby jednak rozprawiać o tym, jak lokalna przestępczość wymusza na murzyńskich właścicielach zamykanie firm, albo o tym, jak fabryki są przenoszone z dala od miasta, a nawet o tym, jak biedota musi ryglować drzwi w obawie przed kradzieżą. (…)

Innym dość często pojawiającym się nieporozumieniem jest fałszywe przekonanie, że zbrojne bandy w gettach zwalczają się nawzajem z pobudek finansowych (narkotyki, pieniądze):

Odtwarzacz video

00:00

01:38

The President Speaker Series – David M. Kennedy (28/03/2014)

Na przekór obiegowym opiniom nadrzędnym motorem zabijania są prywatne vendetty narosłe wokół z pozoru prozaicznych konfliktów (użycie klaksonu w samochodzie, wypowiedziana mimochodem, głupia odzywka, niewłaściwa kolorystyka obuwia, uszczypliwy komentarz na Facebooku, zbyt głośna muzyka na domówce, zalotne spojrzenie na czyjąś dziewczynę etc.), w których uczestniczą członkowie skłóconych gangów, drobni uliczni dilerzy lub samozwańczy przywódcy osiedlowych klik. Te prymitywne standardy plemienno-honorowej sprawiedliwości dobrze uchwycili dziennikarka śledcza, Jill Leovy, w bestsellerze “Ghettoside: A True Story of Murder in America” [8], twórcy reportażu o murzyńskim getto-folklorze w mieście Wilmington, oraz czarnoskóry rysownik, Aaron McGruder, w animowanym sitcomie “The Boondocks”:

Najbardziej trywialna sprzeczka po czarnej stronie miasta zdawała się ciążyć ku przemocy, jakby pod nieobecność prawa zniknęły alternatywne sposoby rozwiązywania sporów. Mimo że nieuregulowane długi i rywalizacja o dobra materialne albo względy kobiet (to ostatnie szczególnie) były zaczynem wielu zabójstw, do równie banalnych motywów zbrodni należały werbalne zniewagi, posądzenia o bycie policyjną wtyką, pijackie awantury czy klasyka – pojawienie się na imprezie bez zaproszenia. Drobne antagonizmy dzieliły ludność tubylczą na zwaśnione obozy, wyzwalając nieprzerwane ataki odwetowe. (…) Każda uraza skrywała niszczycielski potencjał, eksplodujący w momencie przypadkowego zetknięcia się wrogich frakcji, czy to na rogu ulicy czy w sklepie monopolowym. Pragnienie pomszczenia krzywd było pierwotnym impulsem. (link)

Pyskówki w mediach społecznościowych między nastolatkami często bywają rozwiązywane za pomocą broni palnej. Celem ataku odwetowego może stać się każdy z powodu rzucenia pozornie błahej obelgi pod adresem czyjejś dziewczyny albo prześmiewczej uwagi na temat cudzego obuwia. Jedna strzelanina prowadzi do kolejnej i tak bez końca. “Nie da się o tym nie myśleć przed wyjściem z domu. Czy ktoś mnie dzisiaj postrzeli? Czy zostanę napadnięty i obrabowany?” – pyta 17-letni chłopak, który w śródmiejskich porachunkach stracił brata i najlepszego przyjaciela. (…) Z obawy przed zemstą nikt nie chce rozmawiać z policją nawet o ulicznych strzelaninach dziejących się w środku dnia. Haniebna kultura milczenia blokuje śledztwa, zaniża statystyki wykrywalności i obraca część dzielnic w strefy bezprawia. (link)

Odtwarzacz video

00:00

01:41

“Granddad’s Fight” (sezon 1, odcinek 4)

____________________

[1] Obserwacje na dużych, reprezentatywnych próbach niezmiennie wykazują, że w kontekście amerykańskim przeciętna rozbieżność w ilorazie inteligencji między rasą czarną i białą oscyluje w granicach ~15 punktów (a zatem 1 odchylenie standardowe w rozkładzie empirycznym wyników testów), natomiast średnia rozbieżność między subsaharyjską Afryką a Europą i Ameryką Północną sięga niemal 30 punktów. Zobacz: Warne (tabela, cytaty, artykuł), Jensen & Reynolds (tabela, artykuł), Rushton (tabele, książka), Roth et al. (tabela, metaanaliza), Weiss et al. (cytat, artykuł), Hunt (książka), Frisby & Beaujean (cytat, artykuł), Hu et al. (tabela, artykuł), Lasker et al. (cytat, artykuł) czy Fuerst et al. (cytat, artykuł). Optymistyczne rokowania części badaczy odnośnie stopniowego zanikania międzyrasowych dysproporcji w inteligencji (łączone z “Efektem Flynna”) zawsze były przedwczesne i nieuzasadnione, patrz Rushton & Jensen (cytat, artykuł), Williams (cytat, artykuł), Platt et al. (cytaty, artykuł) czy Nijenhuis & Flier (cytat, metaanaliza).

[2] Nie ma dowodów na to, że do powstania tej dywergencji przyczyniły się okoliczności zewnętrzne (systemowo-środowiskowe). W realiach Ameryki z 15-punktowej różnicy w IQ między osobami pochodzenia europejskiego a potomkami przybyszów z Afryki Subsaharyjskiej ekspozycja na ołów odpowiada za raptem 0.6 punktu straty Murzynów w stosunku do białych (tabela, artykuł). W ogóle badania korelujące ołów z IQ wypluwają totalnie sprzeczne i nielogiczne wyniki: przegląd tekstów z lat 1963-2020 wykazał, że im mniej ołowiu we krwi danej subpopulacji, tym większy jego wpływ na poziom inteligencji jej reprezentantów, co jest oczywistym absurdem (cytat+wykres, link). Co gorsza, istnieje raptem jedna analiza, wykorzystująca instrumenty stosowane w genetyce behawioralnej (familial model, porównywanie rodzeństwa lub bliźniąt) i jej autorzy nie znaleźli żadnych dowodów na przyczynowe oddziaływanie ołowiu na pomiary IQ (wykres). Przy okazji warto wiedzieć, że w roku 2009/10 organizacja zrzeszająca szkoły w Ameryce – College Board – przestała udostępniać wyniki testów egzaminacyjnych SAT (dobra zmienna proxy dla IQ) z podziałem na rasę i dochody, bo dzieci z najbiedniejszych białych rodzin regularnie wykręcały zbliżoną albo lepszą punktację niż dzieci najbogatszych Murzynów (tabela, biuletyn JBHE / tabela, artykuł / cytat+tabela, raport). Nie jest też prawdą, że rankingi SAT czy PISA wśród uczniów (przypominam: dobre proxy dla IQ) odzwierciedlają jedynie status socjoekonomiczny ich rodziców. Skontrolowanie modelu o zamożność/wykształcenie matki i ojca praktycznie w ogóle nie osłabia mocy predykcyjnej tej punktacji. Innymi słowy, jest ona niemal całkowicie niezależna od skali bogactwa (cytat, raport / cytat+tabela, artykuł / cytat, przegląd krytyczny).

[3] Geny wywierają przemożny wpływ na ludzką inteligencję. Analizy robione na bliźniętach i testy pokrewieństwa ujawniają, że u dorosłych dziedziczenie wyjaśnia nawet 80-85 proc. zróżnicowania w poziomie IQ (diagram, artykuł). Z tego też powodu, wbrew popularnym mitom, inteligencji nie da się trwale “podnieść” za pomocą nakierowanych interwencji, treningów poznawczych czy innych kognitywnie stymulujących aktywności (cytat, artykuł / cytat, metaanaliza). Przegląd 39 losowych badań kontrolowanych wykazał, że u dzieci, które poddano wczesnym zabiegom w celu “podbicia” wartości ich IQ (nauka czytania, serwowanie wysokiej jakości pożywienia, rozwiązywanie łamigłówek etc.), efekt korzyści w postaci “dodatkowych punktów” zanikał stopniowo po zamknięciu eksperymentów (cytat+wykresy, metaanaliza). Fenomen “zanikania” zaobserwowano również w przypadku osób adoptowanych, które po wejściu w dorosłość opuściły rodzinny dom i “oddaliły się” od rodziców adopcyjnych (cytat+wykres, artykuł). Ingerencja na wczesnym etapie rozwoju dziecka jest o tyle uzasadniona, że im człowiek starszy, tym coraz bardziej doniosła rola genów w profilowaniu zdolności umysłowych kosztem czynników środowiskowych (wykres, artykuł / wykres, artykuł / wykres, metaanaliza). Proces ten nosi nazwę “Efektu Wilsona” (artykuł). Uwaga ta ma fundamentalne znaczenie dla poprawnego interpretowania wniosków z badań klinicznych/interwencyjnych. Otóż wszystkie rezultaty otrzymane na “dziecięcych próbach”, ale bez kontynuacji w okresie pełnoletnim, powinny być z automatu traktowane w kategoriach manipulacji.

[4] Alternatywna hipoteza, którą często zaprzęga się do argumentacji o ukrytych powodach tego, czemu Murzyni (oraz inne “stygmatyzowane” mniejszości) wykręcają dużo niższą punktację w testach umiejętności kognitywnych, jest tzw. “zagrożenie stereotypem” (ST), czyli fenomen psychologiczny, polegający na zredukowaniu potencjału intelektualnego we wszelkiego rodzaju zadaniach u osób obciążonych negatywną cechą i aktywnie świadomych jej istnienia. Spekuluje się, że efekt ten zachodzi w praktyce poprzez wywoływanie reakcji stresowej, która prowadzi z kolei do niedowładu motywacji i zachwiania sprawności pamięci roboczej. Problem w tym, że wpływ motywacji (np. finansowej) na wyniki testów jest statystycznie pomijalny (w najbardziej optymistycznym wariancie odpowiada za różnicę rzędu ~2.5 pkt IQ, zatem mieści się w granicach standardowego błędu pomiaru), natomiast oddziaływanie ST, mimo znacznego upływu czasu od pierwszej publikacji w temacie z roku 1995, jest notorycznie błędnie interpretowane w tekstach naśladowców (cytat, artykuł). Co ważniejsze, szansa uzyskania pozytywnych rezultatów (wspierających hipotezę o ST) w czterech pionierskich eksperymentach Steele’a & Aronsona była niewiarygodnie niska i, jak policzono, wynosi zaledwie 1.4 proc. Już tylko ten detal w oderwaniu od reszty powinien zapalić diodę ostrzegawczą u komentatorów w kwestii jakości oryginalnego źródła (cytat, książka – rozdział 30). Ogólnie rzecz biorąc, im mniej realistyczne otoczenie (np. laboratorium), tym prawdopodobieństwo otrzymania konkluzji na korzyść ST wzrasta; w warunkach symulujących rzeczywistość, znaczenie ST maleje niemal do zera, co sugeruje, że nie mamy do czynienia z namacalnym, autentycznym zjawiskiem (cytat, metaanaliza).

[5] Cenna uwaga: wśród specjalistów od inteligencji panuje konsensus, że eksperymenty, które ją mierzą, są maksymalnie obiektywne, czytaj: nikogo nie dyskryminują i nie są skrzywione na niekorzyść kolorowych mniejszości (tabela, artykuł).

[6] Regularnie można usłyszeć w rozmowach dyletantów, że “istnieje wiele rodzajów inteligencji” (MI – multiple intelligences) oraz że “wytrwałość” w dążeniu do celu tudzież “cechy osobowościowe” człowieka są ważniejsze niż IQ w przewidywaniu jego sukcesów życiowych. Opinie te nie mają podstaw empirycznych – w większości są jedynie paranaukowymi spekulacjami, które nigdy nie przechodzą procesu niezależnej replikacji. MI stanowi klasyczny wręcz przykład neuromitu (cytat, artykuł / cytat, metaanaliza / cytat, książka), natomiast uniwersalny, pięcioczynnikowy model osobowości (tzw. Wielka Piątka albo Big Five), na który składają się ekstrawersja, ugodowość, sumienność, neurotyczność i otwartość na doświadczenia, posiada znacznie mniejszy potencjał prognostyczny aniżeli inteligencja (cytat, artykuł). Ta sama konstatacja dotyczy cechy charakteru zwanej potocznie “wytrwałością” (grit) – jej moc prognostyczna blednie w porównaniu z inteligencją generalną (tabela+cytaty, artykuł). Przy okazji: analiza długofalowa dowodzi, że wychowanie, które dzieci odbierają w domu od rodziców, bardzo słabo koreluje z ich osobowością/charakterem (definiowanym w ramach Big Five). Ów związek jest niewielki i statystycznie pomijalny (cytaty, artykuł).

[7] W tym miejscu pojawia się czasami argument, że negatywna korelacja między statystykami przestępczości a ilorazem inteligencji to konsekwencja banalnego faktu, że “debile” częściej dają się złapać policji niż kryminaliści o pospolitym lub wyższym IQ. Sprawdzono tę hipotezę i uzyskano ambiwalentne wnioski (za: link / przeciw: link). Warto jednak doprecyzować, że autorzy, którzy otrzymali rezultaty wspierające DDH, potwierdzili, iż w realnym świecie oba zjawiska są prawdziwe i nie muszą się wzajemnie wykluczać: inteligencja ma ewidentnie przyczynowy związek z przestępczością i jednocześnie osoby mniej inteligentne narażone są na zwiększone ryzyko aresztowania.

[8] Uprzedzając: Jill Leovy nie przełamuje w tej książce żadnego tabu, przeciwnie – wyznaje te same bezpieczne “prawdy wiary”, które stanowią sedno światopoglądu wszystkich największych producentów narracji w Ameryce: za murzyńskie morderstwa winę ponoszą rzecz jasna “białe diabły” i stworzone przez nich “dyskryminujące, opresyjne prawa”. Oto jak autorka racjonalizuje sobie zabijanie, gwałty, rozboje oraz przemoc międzyrasową w wykonaniu czarnych: Być może nie wszystkim wydaje się oczywiste, że bezkarność białych krzywdzących czarnych przyczynia się do wzrostu liczby morderstw wśród czarnych. Jednak gdy ludzie zostają pozbawieni ochrony prawnej i znajdują się w trudnej sytuacji życiowej, prawdopodobieństwo, że zwrócą się przeciwko sobie, rośnie, a nie maleje. (link).

Korelacja między poziomem biedy, kolorem skóry i przestępczością

Jak postaram się za chwilę pokazać na przykładzie USA, skala i natężenie przestępczości wśród bogatych, wykształconych czarnych oraz białej, niewykształconej biedoty różnią się drastycznie. Przepaść jest tu niekiedy wręcz kolosalna.

  • Szansa, że czarnoskóry mężczyzna z wykształceniem średnim bądź niższym z przedziału wiekowego 25-34 (tradycyjnie podgrupa najbardziej narażona na ryzyko zabójstwa) padnie ofiarą morderstwa z broni palnej jest 14x większa niż dla porównywalnie wyedukowanych białych mężczyzn. Mało tego: szansa, że młody Murzyn po studiach z tych samych widełek zginie od kuli jest 30x większa niż dla białych, którzy skończyli uniwersytet (cytat, artykuł).
  • Odsetek najbiedniejszych białych uczniów, tymczasowo wydalanych dyscyplinarnie z najgorzej dofinansowanych szkół publicznych (K-12), jest niższy niż odsetek czarnych uczniów karanych w taki sam sposób i uczęszczających do najbogatszych placówek edukacyjnych (7.3 vs 7.5 proc., tabela, raport).
  • Biali mieszkańcy Chicago z biednych domów i ubogich dzielnic mają zauważalnie niższe wskaźniki zabójstw niż bogaci czarni z dobrze sytuowanych rodzin (tabela, artykuł).
  • Czarni mieszkańcy Filadelfii z najbogatszych obszarów miasta notują blisko 16x wyższe wskaźniki napaści z użyciem broni palnej aniżeli ich biali odpowiednicy. Ujmując tę kwestię inaczej: czarni z górnych warstw społecznych doświadczają wskaźników napaści na poziomie białych mieszczuchów z dolnych warstw społecznych (tabela, artykuł).
  • Amerykańskie dzielnice klasy średniej zasiedlone w większości przez ludność czarnoskórą rejestrują ponad czterokrotnie wyższe wskaźniki morderstw z broni palnej niż dzielnice klasy średniej okupowane w większości przez białych: Among middle class neighborhoods, the rate of gun homicides is more than four times higher in neighborhoods with mostly black residents than neighborhoods with mostly white residents (link).
  • Inne źródło i znowu to samo: pomimo iż dla wszystkich grup demograficznych przeciętna liczba zabójstw rośnie wraz z zagęszczeniem biedy, to Murzyni pozostają jedyną rasą, która cechuje się nienaturalnie wysokimi wskaźnikami wiktymizacji (artykuł).
  • W makroskali młodzi czarnoskórzy mężczyźni wychowywani przez czarnych milionerów, należących do 1 procenta najzamożniejszych ludzi Ameryki, trafiają do więzień tak samo często jak biali, dorastający w biednym środowisku robotniczym i/lub standardach klasy niższej, tj. w gospodarstwach domowych, których roczne zarobki nie przekraczają pułapu $36 tysięcy (za NYT: Black men raised in the top 1 percent – by millionaires – were as likely to be incarcerated as white men raised in households earning about $36,000). W cytowanym artykule pada inny jeszcze (eufemistyczny) komentarz: “Czarni chłopcy mają problemy z porzuceniem stereotypu murzyńskiego kryminalisty, nawet jeżeli mieszkają w dostatnich warunkach socjoekonomicznych” (Simply because you’re in an area that is more affluent, it’s still hard for black boys to present themselves as independent from the stereotype of black criminality.) Autor opublikował później te wyniki w recenzowanym czasopiśmie (zobacz wykres, artykuł).
  • Za “The Washington Post” – Poor white kids are less likely to go to prison than rich black kids (biedne białe dzieci rzadziej lądują za kratkami niż ich bogatsi czarni rówieśnicy):


(statystyki pochodzą z tekstu Zawy et al. “Race, Wealth and Incarceration”, 2016)

Podsumowując: skład rasowy populacji jest zdecydowanie najlepszym prognostykiem nasilenia przestępczości. Im więcej Murzynów, tym wyższe rejestrowane wskaźniki rozbojów, morderstw i napaści. Pomiary ubóstwa absolutnego, rynkowych stóp bezrobocia czy przywilejów klasowych zazwyczaj albo słabo korelują z przemocą, albo generują niestabilne i niespójne rezultaty (cytat, książka). Konkluzja ta nie ogranicza się tylko do wielkomiejskich jurysdykcji w Ameryce (cytaty, artykuł), ale dotyczy też całej puli hrabstw (cytaty, artykuł) oraz wszystkich pięćdziesięciu stanów (tabela, artykuł / tabela, artykuł / wykresy, raport). Ba, na przekór bezrefleksyjnie powielanym mitom, popularny wśród ekonomistów i socjologów indeks Giniego (papierek lakmusowy rozkładu nierówności dochodowych w danym kraju) również nie sprawdza się jako uniwersalne i systematyczne wyjaśnienie przestępczości (cytaty, macierz korelacji, metaanaliza / cytaty, metaanaliza / wykresy, analiza); nie jest on nawet tożsamy z odczuwaniem frustracji przez ludzi, czyli z faktyczną percepcją nierówności społecznych, która mogłaby ewentualnie napędzać zabijanie (tabela, artykuł). Co gorsza, w przypadku morderstw wnioski, jakie wyciąga badacz, są dodatkowo uzależnione od wyboru źródłowych statystyk: inne rezultaty generują dane ONZ, inne WHO, a jeszcze inaczej wychodzi z bilansów Banku Światowego (wykresy, artykuł). Krótko: rozważania socjoekonomiczne są wewnętrznie sprzeczne i mętne. Nieporównywalnie bardziej rygorystyczne wskazówki odnośnie fenomenu występowania przemocy oferuje zgłębianie ludzkiego genotypu.

Z szerokiego spektrum badań nad udziałem czynników genetycznych w zróżnicowaniu agresji wyłania się obraz, w którym komponent dziedziczny odpowiada za minimum ~50 proc. wspomnianego zróżnicowania (ZGMiS / metaanaliza / cytaty z tego artykuł). Zdolność kontrolowania własnych impulsów i panowania nad stresem (co wiąże się bezpośrednio z wybuchami agresji) także jest w większości dziedziczna (cytat, metaanaliza) – podobnie jak skłonność do antyspołecznych zachowań (cytat, metaanaliza), która w przypadku np. groźnych uczniów manifestuje się karnym wydalaniem ich ze szkół (cytat, artykuł). Dalej: istnieje powszechna zgoda co do tego, że asymetrię w mierzalnej wartości inteligencji u przedstawicieli rasy czarnej i białej można przynajmniej w połowie [1] wytłumaczyć bagażem genetycznym (cytat, sondaż / cytat, metaanaliza / podsumowanie) [2][3][4][5][6], a jak wiadomo, średnia inteligencja wśród członków danej grupy ma potem w sensie praktycznym wymierne przełożenie na jej osiągnięcia cywilizacyjno-militarno-techniczne (cytat, edytorial), indeksy przestępczości (artykuł) tudzież ryzyko aresztowania/uwięzienia (cytat, artykuł) [7] – i to w kompletnym oderwaniu od realiów socjalno-bytowych (cytaty, artykuł).

U podłoża większości aktów przemocy
nie leżą problemy ekonomiczne.

– Barry Latzer (link)

Zwalczanie biedy trzeba zacząć
od zwalczania przestępczości.

– The Baltimore Sun (link)

Bill O’Reilly jest zbyt łagodny
[w krytykowaniu czarnej patologii].
– Don Lemon, CNN (link)

David M. Kennedy, profesor kryminologii z nowojorskiej Wyższej Szkoły Prawa Karnego im. Johna Jaya, odpowiada na pytanie, czy jest możliwa redukcja przestępczości w murzyńskich dzielnicach Ameryki metodą stopniowej poprawy warunków socjoekonomicznych:

Odtwarzacz video

The President Speaker Series – David M. Kennedy (28/03/2014)

Pytanie: Wielu ludzi jest zdania, że przestępczość powinno się zwalczać u samych jej źródeł, niwelując rozwarstwienia społeczne, podnosząc jakość kształcenia młodzieży i tym podobne. Jak to stanowisko współgra z twoim podejściem do zagadnienia?

Odpowiedź: Z racji wychowania i osobistych predyspozycji, jak również z powodu specyfiki wykonywanego zawodu sam byłem onegdaj zwolennikiem takiego myślenia. Światopogląd ten został jednak brutalnie zweryfikowany w połowie lat 80. zeszłego wieku po wizycie w dzielnicy Watts na południu Los Angeles i pięciominutowym spacerze po lokalnym rynku narkotyków. W sytuacji kiedy gangi ostrzeliwują okoliczne budynki, gdy na każdym rogu ulicy toczą się walki o dominacje i gdy czarnoskóre staruszki muszą dosłownie barykadować się we własnych domach z obawy przed grasującymi na zewnątrz młodocianymi oprychami – forsowanie pomysłu, że w takiej sytuacji można podnosić poziom nauczania, sprowadzać inwestorów czy zachęcać ludzi do kupowania nieruchomości albo renowacji już istniejącej zabudowy… Mówimy tutaj o realiach, w których dzieciaki przestają chodzić na lekcje, bo ścieżka wiodąca do ich szkoły przecina terytorium gangu. Zatem czysta idea, że oto można naprawić wszystko u podstaw na drodze polepszenia kondycji socjoekonomicznej, jest w istocie kuriozalna. W takim środowisku nic nie da się zrobić. Doświadczenie to postawiło na głowie całe moje dotychczasowe zapatrywania. Dopóki dzielnice te nie zaznają ukojenia, rozumianego jako brak przestępczości, nigdy nie będzie można otwierać tam szkół, wspierać polityki prorodzinnej czy odbudowywać ekonomii. Nie nakłonisz właściciela supermarketu, aby przeniósł swój sklep do miejsca, gdzie ludzie boją się wyjść z domu na zakupy.

Kennedy sygnalizuje tu udział sprzężenia zwrotnego: aberracyjnie wysoka przestępczość prowadzi do erozji warunków bytowych ludności, co z kolei prowadzi do dalszej eskalacji przemocy. Jego inicjatywy prewencyjne i długoletnie obserwacje sugerują, że znaczna większość napaści / morderstw jest skutkiem okoliczności, na które można wpłynąć bez potrzeby dokonywania super kosztownych reform strukturalnych. Wystarczy jedynie dotrzeć do względnie niewielkiej subpopulacji najbardziej zhardziałych i aktywnych kryminalistów, którzy nakręcają spiralę śródmiejskich strzelanin. Stąd proste wnioskowanie, że korzystne zmiany w sferze gospodarczo-socjalnej są ubocznym produktem malejących chronologicznie wcześniej wskaźników przestępczości, nie zaś wymogiem koniecznym do zainicjowania ich spadku.

Analityk harvardzkiej Szkoły Administracji Publicznej im. Johna F. Kennedy’ego, Thomas Abt, w wywiadzie dla “The Harvard Gazette” (link):

Argumentacja, że w celu zredukowania przestępczości w amerykańskich miastach trzeba w pierwszej kolejności rozwiązać problem biedy, nie jest wspierana przez materiał dowodowy. W rzeczywistości konkluzje w odwrotnym kierunku wydają się bardziej przekonujące. Coraz lepiej rozumiemy, że ekspozycja na przemoc stanowi jeden z podstawowych mechanizmów, utrzymujących ludzi w błędnym kole ubóstwa. Przemoc wpływa na każdy aspekt ich życia – edukację, zdrowie, zatrudnienie, wszystkie te rzeczy na raz.

Obszary zamieszkane przez czarnych w USA nie popadają w ruinę dlatego, że panuje w nich bieda – murzyńskie miasta bankrutują i pogrążają się w ubóstwie, bo ucieka stamtąd kapitał i ewakuuje się baza podatkowa (zjawisko white flight na przykładzie choćby powojennej historii Detroit). W konsekwencji nikt nie chce tych rejonów odwiedzać, nikt nie chce się tam osiedlać, otwierać sklepów, warsztatów, parków, kin czy restauracji. Wszystko w obawie przed atakiem tubylca uzbrojonego w maczetę lub Glocka. Kryminolog Barry Latzer w monografii “The Rise and Fall of Violent Crime in America” wymienia przestępczość (w tym zwłaszcza rozboje) jako główny czynnik izolujący Murzynów od reszty społeczeństwa, utrwalający rasowe stereotypy oraz napędzający oddolne procesy formowania się gett w obrębie amerykańskich metropolii. Ponieważ w USA jest to temat tabu, o którym publicznie nie wolno dyskutować, autor miał problemy z domknięciem książkowego kontraktu (więcej tu).

Naturalnie ofiarami murzyńskiej przemocy padają nie tylko biali czy Azjaci, ale także ci czarni mieszkańcy, którzy mają coś wartościowego do zaoferowania swojej sąsiedzkiej wspólnocie i na skutek szalejącego bandytyzmu zmuszeni są do migracji. Na str. 49 specjalnego wydania chicagowskiego miesięcznika “Ebony” z sierpnia 1979 roku wielkimi literami wybito nagłówek “ZNISZCZENIA W MIASTACH”, pod spodem zaś umieszczono anegdotkę z życia:

Na rogu South Side w Chicago kobieta ucięła sobie pogawędkę z pewnym kioskarzem o swej przyjaciółce. “Nie mogę jej winić. Włamali jej się do domu, ukradli dwa auta z podjazdu, więc wyniosła się na przedmieścia”. Tematem ich rozmowy była czarna przestępczość oraz to, w jaki sposób przyczynia się ona do odpływu klasy średniej z czarnych dzielnic. Równie dobrze owa kobieta mogłaby jednak rozprawiać o tym, jak lokalna przestępczość wymusza na murzyńskich właścicielach zamykanie firm, albo o tym, jak fabryki są przenoszone z dala od miasta, a nawet o tym, jak biedota musi ryglować drzwi w obawie przed kradzieżą. (…)

Innym dość często pojawiającym się nieporozumieniem jest fałszywe przekonanie, że zbrojne bandy w gettach zwalczają się nawzajem z pobudek finansowych (narkotyki, pieniądze):

Odtwarzacz video

00:00

01:38

The President Speaker Series – David M. Kennedy (28/03/2014)

Na przekór obiegowym opiniom nadrzędnym motorem zabijania są prywatne vendetty narosłe wokół z pozoru prozaicznych konfliktów (użycie klaksonu w samochodzie, wypowiedziana mimochodem, głupia odzywka, niewłaściwa kolorystyka obuwia, uszczypliwy komentarz na Facebooku, zbyt głośna muzyka na domówce, zalotne spojrzenie na czyjąś dziewczynę etc.), w których uczestniczą członkowie skłóconych gangów, drobni uliczni dilerzy lub samozwańczy przywódcy osiedlowych klik. Te prymitywne standardy plemienno-honorowej sprawiedliwości dobrze uchwycili dziennikarka śledcza, Jill Leovy, w bestsellerze “Ghettoside: A True Story of Murder in America” [8], twórcy reportażu o murzyńskim getto-folklorze w mieście Wilmington, oraz czarnoskóry rysownik, Aaron McGruder, w animowanym sitcomie “The Boondocks”:

Najbardziej trywialna sprzeczka po czarnej stronie miasta zdawała się ciążyć ku przemocy, jakby pod nieobecność prawa zniknęły alternatywne sposoby rozwiązywania sporów. Mimo że nieuregulowane długi i rywalizacja o dobra materialne albo względy kobiet (to ostatnie szczególnie) były zaczynem wielu zabójstw, do równie banalnych motywów zbrodni należały werbalne zniewagi, posądzenia o bycie policyjną wtyką, pijackie awantury czy klasyka – pojawienie się na imprezie bez zaproszenia. Drobne antagonizmy dzieliły ludność tubylczą na zwaśnione obozy, wyzwalając nieprzerwane ataki odwetowe. (…) Każda uraza skrywała niszczycielski potencjał, eksplodujący w momencie przypadkowego zetknięcia się wrogich frakcji, czy to na rogu ulicy czy w sklepie monopolowym. Pragnienie pomszczenia krzywd było pierwotnym impulsem. (link)

Pyskówki w mediach społecznościowych między nastolatkami często bywają rozwiązywane za pomocą broni palnej. Celem ataku odwetowego może stać się każdy z powodu rzucenia pozornie błahej obelgi pod adresem czyjejś dziewczyny albo prześmiewczej uwagi na temat cudzego obuwia. Jedna strzelanina prowadzi do kolejnej i tak bez końca. “Nie da się o tym nie myśleć przed wyjściem z domu. Czy ktoś mnie dzisiaj postrzeli? Czy zostanę napadnięty i obrabowany?” – pyta 17-letni chłopak, który w śródmiejskich porachunkach stracił brata i najlepszego przyjaciela. (…) Z obawy przed zemstą nikt nie chce rozmawiać z policją nawet o ulicznych strzelaninach dziejących się w środku dnia. Haniebna kultura milczenia blokuje śledztwa, zaniża statystyki wykrywalności i obraca część dzielnic w strefy bezprawia. (link)

Odtwarzacz video

00:00

01:41

“Granddad’s Fight” (sezon 1, odcinek 4)

____________________

[1] Obserwacje na dużych, reprezentatywnych próbach niezmiennie wykazują, że w kontekście amerykańskim przeciętna rozbieżność w ilorazie inteligencji między rasą czarną i białą oscyluje w granicach ~15 punktów (a zatem 1 odchylenie standardowe w rozkładzie empirycznym wyników testów), natomiast średnia rozbieżność między subsaharyjską Afryką a Europą i Ameryką Północną sięga niemal 30 punktów. Zobacz: Warne (tabela, cytaty, artykuł), Jensen & Reynolds (tabela, artykuł), Rushton (tabele, książka), Roth et al. (tabela, metaanaliza), Weiss et al. (cytat, artykuł), Hunt (książka), Frisby & Beaujean (cytat, artykuł), Hu et al. (tabela, artykuł), Lasker et al. (cytat, artykuł) czy Fuerst et al. (cytat, artykuł). Optymistyczne rokowania części badaczy odnośnie stopniowego zanikania międzyrasowych dysproporcji w inteligencji (łączone z “Efektem Flynna”) zawsze były przedwczesne i nieuzasadnione, patrz Rushton & Jensen (cytat, artykuł), Williams (cytat, artykuł), Platt et al. (cytaty, artykuł) czy Nijenhuis & Flier (cytat, metaanaliza).

[2] Nie ma dowodów na to, że do powstania tej dywergencji przyczyniły się okoliczności zewnętrzne (systemowo-środowiskowe). W realiach Ameryki z 15-punktowej różnicy w IQ między osobami pochodzenia europejskiego a potomkami przybyszów z Afryki Subsaharyjskiej ekspozycja na ołów odpowiada za raptem 0.6 punktu straty Murzynów w stosunku do białych (tabela, artykuł). W ogóle badania korelujące ołów z IQ wypluwają totalnie sprzeczne i nielogiczne wyniki: przegląd tekstów z lat 1963-2020 wykazał, że im mniej ołowiu we krwi danej subpopulacji, tym większy jego wpływ na poziom inteligencji jej reprezentantów, co jest oczywistym absurdem (cytat+wykres, link). Co gorsza, istnieje raptem jedna analiza, wykorzystująca instrumenty stosowane w genetyce behawioralnej (familial model, porównywanie rodzeństwa lub bliźniąt) i jej autorzy nie znaleźli żadnych dowodów na przyczynowe oddziaływanie ołowiu na pomiary IQ (wykres). Przy okazji warto wiedzieć, że w roku 2009/10 organizacja zrzeszająca szkoły w Ameryce – College Board – przestała udostępniać wyniki testów egzaminacyjnych SAT (dobra zmienna proxy dla IQ) z podziałem na rasę i dochody, bo dzieci z najbiedniejszych białych rodzin regularnie wykręcały zbliżoną albo lepszą punktację niż dzieci najbogatszych Murzynów (tabela, biuletyn JBHE / tabela, artykuł / cytat+tabela, raport). Nie jest też prawdą, że rankingi SAT czy PISA wśród uczniów (przypominam: dobre proxy dla IQ) odzwierciedlają jedynie status socjoekonomiczny ich rodziców. Skontrolowanie modelu o zamożność/wykształcenie matki i ojca praktycznie w ogóle nie osłabia mocy predykcyjnej tej punktacji. Innymi słowy, jest ona niemal całkowicie niezależna od skali bogactwa (cytat, raport / cytat+tabela, artykuł / cytat, przegląd krytyczny).

[3] Geny wywierają przemożny wpływ na ludzką inteligencję. Analizy robione na bliźniętach i testy pokrewieństwa ujawniają, że u dorosłych dziedziczenie wyjaśnia nawet 80-85 proc. zróżnicowania w poziomie IQ (diagram, artykuł). Z tego też powodu, wbrew popularnym mitom, inteligencji nie da się trwale “podnieść” za pomocą nakierowanych interwencji, treningów poznawczych czy innych kognitywnie stymulujących aktywności (cytat, artykuł / cytat, metaanaliza). Przegląd 39 losowych badań kontrolowanych wykazał, że u dzieci, które poddano wczesnym zabiegom w celu “podbicia” wartości ich IQ (nauka czytania, serwowanie wysokiej jakości pożywienia, rozwiązywanie łamigłówek etc.), efekt korzyści w postaci “dodatkowych punktów” zanikał stopniowo po zamknięciu eksperymentów (cytat+wykresy, metaanaliza). Fenomen “zanikania” zaobserwowano również w przypadku osób adoptowanych, które po wejściu w dorosłość opuściły rodzinny dom i “oddaliły się” od rodziców adopcyjnych (cytat+wykres, artykuł). Ingerencja na wczesnym etapie rozwoju dziecka jest o tyle uzasadniona, że im człowiek starszy, tym coraz bardziej doniosła rola genów w profilowaniu zdolności umysłowych kosztem czynników środowiskowych (wykres, artykuł / wykres, artykuł / wykres, metaanaliza). Proces ten nosi nazwę “Efektu Wilsona” (artykuł). Uwaga ta ma fundamentalne znaczenie dla poprawnego interpretowania wniosków z badań klinicznych/interwencyjnych. Otóż wszystkie rezultaty otrzymane na “dziecięcych próbach”, ale bez kontynuacji w okresie pełnoletnim, powinny być z automatu traktowane w kategoriach manipulacji.

[4] Alternatywna hipoteza, którą często zaprzęga się do argumentacji o ukrytych powodach tego, czemu Murzyni (oraz inne “stygmatyzowane” mniejszości) wykręcają dużo niższą punktację w testach umiejętności kognitywnych, jest tzw. “zagrożenie stereotypem” (ST), czyli fenomen psychologiczny, polegający na zredukowaniu potencjału intelektualnego we wszelkiego rodzaju zadaniach u osób obciążonych negatywną cechą i aktywnie świadomych jej istnienia. Spekuluje się, że efekt ten zachodzi w praktyce poprzez wywoływanie reakcji stresowej, która prowadzi z kolei do niedowładu motywacji i zachwiania sprawności pamięci roboczej. Problem w tym, że wpływ motywacji (np. finansowej) na wyniki testów jest statystycznie pomijalny (w najbardziej optymistycznym wariancie odpowiada za różnicę rzędu ~2.5 pkt IQ, zatem mieści się w granicach standardowego błędu pomiaru), natomiast oddziaływanie ST, mimo znacznego upływu czasu od pierwszej publikacji w temacie z roku 1995, jest notorycznie błędnie interpretowane w tekstach naśladowców (cytat, artykuł). Co ważniejsze, szansa uzyskania pozytywnych rezultatów (wspierających hipotezę o ST) w czterech pionierskich eksperymentach Steele’a & Aronsona była niewiarygodnie niska i, jak policzono, wynosi zaledwie 1.4 proc. Już tylko ten detal w oderwaniu od reszty powinien zapalić diodę ostrzegawczą u komentatorów w kwestii jakości oryginalnego źródła (cytat, książka – rozdział 30). Ogólnie rzecz biorąc, im mniej realistyczne otoczenie (np. laboratorium), tym prawdopodobieństwo otrzymania konkluzji na korzyść ST wzrasta; w warunkach symulujących rzeczywistość, znaczenie ST maleje niemal do zera, co sugeruje, że nie mamy do czynienia z namacalnym, autentycznym zjawiskiem (cytat, metaanaliza).

[5] Cenna uwaga: wśród specjalistów od inteligencji panuje konsensus, że eksperymenty, które ją mierzą, są maksymalnie obiektywne, czytaj: nikogo nie dyskryminują i nie są skrzywione na niekorzyść kolorowych mniejszości (tabela, artykuł).

[6] Regularnie można usłyszeć w rozmowach dyletantów, że “istnieje wiele rodzajów inteligencji” (MI – multiple intelligences) oraz że “wytrwałość” w dążeniu do celu tudzież “cechy osobowościowe” człowieka są ważniejsze niż IQ w przewidywaniu jego sukcesów życiowych. Opinie te nie mają podstaw empirycznych – w większości są jedynie paranaukowymi spekulacjami, które nigdy nie przechodzą procesu niezależnej replikacji. MI stanowi klasyczny wręcz przykład neuromitu (cytat, artykuł / cytat, metaanaliza / cytat, książka), natomiast uniwersalny, pięcioczynnikowy model osobowości (tzw. Wielka Piątka albo Big Five), na który składają się ekstrawersja, ugodowość, sumienność, neurotyczność i otwartość na doświadczenia, posiada znacznie mniejszy potencjał prognostyczny aniżeli inteligencja (cytat, artykuł). Ta sama konstatacja dotyczy cechy charakteru zwanej potocznie “wytrwałością” (grit) – jej moc prognostyczna blednie w porównaniu z inteligencją generalną (tabela+cytaty, artykuł). Przy okazji: analiza długofalowa dowodzi, że wychowanie, które dzieci odbierają w domu od rodziców, bardzo słabo koreluje z ich osobowością/charakterem (definiowanym w ramach Big Five). Ów związek jest niewielki i statystycznie pomijalny (cytaty, artykuł).

[7] W tym miejscu pojawia się czasami argument, że negatywna korelacja między statystykami przestępczości a ilorazem inteligencji to konsekwencja banalnego faktu, że “debile” częściej dają się złapać policji niż kryminaliści o pospolitym lub wyższym IQ. Sprawdzono tę hipotezę i uzyskano ambiwalentne wnioski (za: link / przeciw: link). Warto jednak doprecyzować, że autorzy, którzy otrzymali rezultaty wspierające DDH, potwierdzili, iż w realnym świecie oba zjawiska są prawdziwe i nie muszą się wzajemnie wykluczać: inteligencja ma ewidentnie przyczynowy związek z przestępczością i jednocześnie osoby mniej inteligentne narażone są na zwiększone ryzyko aresztowania.

[8] Uprzedzając: Jill Leovy nie przełamuje w tej książce żadnego tabu, przeciwnie – wyznaje te same bezpieczne “prawdy wiary”, które stanowią sedno światopoglądu wszystkich największych producentów narracji w Ameryce: za murzyńskie morderstwa winę ponoszą rzecz jasna “białe diabły” i stworzone przez nich “dyskryminujące, opresyjne prawa”. Oto jak autorka racjonalizuje sobie zabijanie, gwałty, rozboje oraz przemoc międzyrasową w wykonaniu czarnych: Być może nie wszystkim wydaje się oczywiste, że bezkarność białych krzywdzących czarnych przyczynia się do wzrostu liczby morderstw wśród czarnych. Jednak gdy ludzie zostają pozbawieni ochrony prawnej i znajdują się w trudnej sytuacji życiowej, prawdopodobieństwo, że zwrócą się przeciwko sobie, rośnie, a nie maleje. (link).

Dwadzieścia lat unijnego VAT-u w Polsce – ciszej nad tą trumną

Dwadzieścia lat unijnego VAT-u w Polsce – ciszej nad tą trumną

Prof. Witold Modzelewski   Marucha w dniu 2024-05-08 marucha

Czy ktoś dziś pamięta festiwal głupot opowiadanych przed dwudziestu laty na temat „zalet” unijnej wersji VAT-u, którą wprowadzono w Polsce z dniem 1 maja 2004 r.?

Szczyty nonsensu jak zawsze osiągnęła „Gazeta Wyborcza” publikując wielomiesięczny wywiad z zapomnianym już ekspertem z tzw. wielkiej czwórki, który zachwalał zalety i domniemane przewagi tej wersji VAT-u oraz odsądzając jednocześnie od czci i wiary polski dorobek.

A przecież już wtedy było wiadomo (również w Polsce), że po ponad trzydziestu latach harmonizacji tego podatku stał się nieznanym w historii polem wyłudzania nienależnych i pozornie należnych zwrotów, a budżety wielu państw członkowskich stały się przysłowiową dojną krową dla wszelkiej maści oszustów.

Nawet wysocy funkcjonariusze państwowi chwalili w publicznych wypowiedziach swoiste „zalety” unijnej wersji tego podatku m.in. twierdząc, że dziś nie warto zarabiać popełniając pospolite przestępstwa (np. wyłudzenia rozbójnicze), lecz wystarczy wyłudzać zwroty unijnego VAT-U.

Ile w ciągu tych dwudziestu lat zarobili wyłudzacze, oszuści i wszelkiego rodzaju „biznes optymalizacyjny” na tym podatku? Było to co najmniej 350 mld zł, a „luka” z lat 2008-2014 – oficjalnie była szacowana na ponad 280 mld zł. W zeszłym roku zwrócono aż 219 mld zł, czyli prawie dwa razy więcej niż w 2021 r. (113 mld zł) i owa luka znów ma dwucyfrową wysokość.

Żniwa więc były obfite, a uczciwi podatnicy sowicie finansowali „optymalizację podatkową” wybranych, czyli masową grabież środków publicznych.

Czy musiało się tak stać? Czy unijna wersja tego podatku jest aż tak patologiczna, że państwa członkowskie były skazane na masową grabież środków publicznych?

Odpowiedź jest oczywiście negatywna. Są państwa członkowskie, które implementując ten sam „unijny szmelc” (bardzo trafne określenie jednego ze znanych publicystów), nie dały pola oszustom i wyłudzaczom, czyli implementowali te nonsensy w sposób umiejętny, kierując się interesem swojego kraju i uczciwych podatników.

Nam się to nie udało, przynajmniej w latach 2004-2018, bo w okresie od 2017 do 2020 r. uchylono kilka przepisów umożliwiających wyłudzenia zwrotów tego podatku. Dlaczego jednak nie zrobiono tego wcześniej?

Odpowiedź być może jest dość banalna: wszystkie ośrodki decyzyjne rządzące tym podatkiem zostały opanowane przez ludzi, którzy albo nie mieli pojęcia o tym podatku lub psuli go nieświadomie albo działali w złej wierze. Nie było tu również istotnych różnic między dwoma wrogimi częściami tzw. POPiSu, bo gdy rządzili liberałowie, to najwięcej do powiedzenia na temat tego podatku miała pewna dama z tzw. międzynarodowej firmy doradczej („społeczna doradczyni ministra finansów”) a w czasach rządów prawicy „ekspert” z tego samego podmiotu był nawet wiceministrem finansów do spraw podatków.

Wokół resortu kręcą się wciąż ci sami ludzie, którzy na łamach „opiniotwóczych” mediów od dwudziestu lat chwalą te patologie legislacyjne jako rozwiązania „korzystne dla podatników”. I tu zapewne mieli rację i nawet z reguły wiadomo, którzy to są podatnicy. Przykładowo: wprowadzono i następnie rozszerzano zakres tzw. odwrotnego obciążenia (lata 2011-2019), przez co całe branże (np. złomiarska, stalowa, metali kolorowych, elektryczna) przestały płacić ten podatek i uzyskiwały wielomiliardowe zwroty.

Każdy kto chciał przeciwstawić się tym działaniom podlegał politycznej i medialnej agresji a nawet próbom zastraszania (byłem adresatem tego rodzaju działań). Warto było jednak podjąć tę walkę, bo po ośmiu latach zmagań udało się wreszcie zlikwidować owo odwrotne obciążenia i wprowadzić w to miejsce obowiązkową podzieloną płatność (2019 r.) a ostatnio udało się zablokować całkowitą degradację fakturowania dokonaną przy pomocy tzw. obowiązkowych faktur ustrukturyzowanych. Były też i mniejsze sukcesy, ale o nich opowiem kiedy indziej.

Podatnicy już się połapali na czym polega biznesowo-legislacyjna praktyka unijnego VAT-u:

  • najpierw wprowadzono nowe przepisy, które są wyrazem implementacji rozwiązań unijnych,
  • potem pojawili się „renomowani” usługodawcy, którzy chwalą się, że to oni napisali te przepisy znając sposoby ich wykorzystania w interesie klientów,
  • na koniec przychodził kontroler, a często wręcz prokurator, który kwestionował owe „schematy optymalizacyjne” i trzeba było wstecznie płacić zaległe podatki lub zwracać zwroty,
  • znów pojawia się ten sam usługodawca, który chce zarobić na obsłudze sporów, które sam sprowokował.

Może warto by stworzyć galerię ojców (i matek) unijnej wersji tego podatku i docenić ich „zasługi” dla rozwoju optymalizacji podatkowej i rozwoju wiedzy o „luce podatkowej”.

Prof. Witold Modzelewski  
https://konserwatyzm.pl/

Darmowe uprawnienia do emisji bzdur

Autor: Józef Wieczorek , 9 maja 2024 Darmowe uprawnienia do emisji bzdur

Darmowe uprawnienia do emisji bzdur

Media alarmują, że globalne ocieplenie i zmiany klimatu powodują katastrofalne topnienie lo­dowców, a szczególne zagrożenie ma stanowić tzw. lodowiec zagłady. To lodowiec Thwaites, położony w zachodniej Antarktydzie o po­wierzchni równej Wielkiej Brytanii, będący pod obserwacją naukową od wielu lat. Fakt, że się szybko topi, i, jak się ocenia, może spowodować podniesienie poziomu wód o po­nad 60 centymetrów! Media też straszą, że w niedalekiej przyszłości cała Polska może zostać zalana 16-centymetrową warstwą wody, choć nie podają, jak to możliwe, skoro de­niwelacje terenu sięgają setek, a nawet więcej metrów. Ale dla siania grozy skutków globalnego ocieplenia to nie ma znaczenia, bo chodzenie w wodzie co najmniej po kostki to niezbyt sympatyczna perspektywa, nieprawdaż? Jasne, że ułatwia to wprowadzanie Zielonego Ładu i podnoszenie cen uprawnień do emisji CO2. Natomiast uprawnienia do emisji bzdur są darmowe i niektórzy z tego korzystają bez ograniczeń. Dzięki badaniom geologicznym i geofizycznym musimy brać pod uwagę, że przyczyną szybkiego topnienia lodowca Thwa­ites jest emisja ciepła pochodzącego z głębi Ziemi. Skorupa ziemska jest tam cienka, pocięta rowami tektonicznymi, więc strumienie ciepła z głębi Ziemi grzeją lodowiec od dołu. Zapo­mina się, że emisji ciepła geotermalnego nie da się ograniczyć polityką uprawnień do emisji. Można takimi rozporządzeniami zlikwidować gospodarkę, emisje z kominów, ale wulkany jak dymiły, tak dymią, a w strefach ryftowych ciepło silnie emituje z wnętrza Ziemi, nie zważając na powierzchniowe zarządzenia Komisji Eu­ropejskiej.

Ziemia jest żywą planetą, z gorącym wnętrzem i procesy na niej zachodzące trzeba badać wszechstronnie, mając na uwadze wszystkie sfery ziemskie, nie zapominając o litosferze i sferach głębszych. Unieważnianie wnętrza Ziemi nie ma podstaw naukowych. Dopóki uprawnienia do emisji bzdur pozostaną darmowe, a niezależne opinie na­ukowe – anulowane/penalizowane, nie należy się spodziewać postępu nad wyjaśnieniem rzeczywistych przyczyn zmian termicznych na powierzchni Ziemi.

https://youtube.com/watch?v=-MqM0hhhbtY%3Ffeature%3Doembed

O autorze: Józef Wieczorek

Free Wine at a New Italian Restaurant is Doing the Impossible. Smartphone addiction.

Free Wine at a New Italian Restaurant Is Doing the Impossible

by Jon Paul Fabrizio May 8, 2024

Free Wine at a New Italian Restaurant Is Doing the Impossible

Right now, smartphone addiction is out of control. Things have reached such a point that the average American checks his phone 352 times a day—once every two minutes and 43 seconds.

But right now, a restaurant in Italy—and free wine—is doing what many thought impossible: It is separating people from their phones.

Last month, a restaurant called Al Condominio opened in Verona, a city midway between Milan and Venice. Upon entry, the restaurant’s employees make a unique proposition to their patrons. If customers agree to lock up their cell phones for the entirety of the meal, they will receive a complimentary bottle of wine.

The restaurant’s owner, Angelo Lella, said he started this practice with a specific goal in mind.

“We wanted to open a restaurant that was different from the others. So we picked this format—customers can choose to renounce technology while enjoying a convivial moment together. Technology is becoming a problem—there is no need to look at your phone every five seconds, but for many people, it is like a drug.”

This is no exaggeration. In 2019, 75% of Italian adults used their phones over three hours a day—6% of whom admitted to using their smartphones for more than ten hours in one day.

However, despite this statistic, Mr. Lella’s plan has achieved notable success.

He asserted that “The response has been very positive. Ninety percent of customers have opted to leave aside their phones in exchange for wine. It really is a beautiful thing to see people embracing it—they are talking to each other rather than looking at photos or responding to messages on their phone.”

Thus, breaking dependence on technology is not an impossible task. People can and will avoid digital enslavement if given the opportunity.

Can We Bring This To America?

This phenomenon serves as food for thought, particularly for Americans. The nation suffers the devastating effects of smartphone addiction.

A recent study pointed out that 57% of Americans consider themselves addicted to their phones. This number is even more startling, considering that it does not include those who won’t admit their addiction.

However, it is not too late to fight back. Similar business models discouraging technology abuse show how open Americans are to the idea of a smartphone detox. One proof is the growing popularity of minimalist phones, which protect their users from Tik-Tok-esque distractions.

Additionally, a trend called “digital detox” is also gaining steam. According to a 2022 survey, 32% of American internet users have participated in this positive practice of abstaining from internet use.

Many Americans realize there is a problem and naturally want to solve it. Granted, breaking a smartphone addiction is a daunting task. However, a little bit of incentive goes a long way.

That’s why practices similar to those promoted at Al Condominio should be encouraged. Instead of having tabletop payment kiosks and QR-code menus, America needs restaurants that allow people to detach themselves from technology and enjoy human interaction—all over a glass of fine wine.

III RP; wolno gotowana żaba. Z dedykacją dla krajowych „elit”.

III RP; wolno gotowana żaba

Z dedykacją dla krajowych „elit”

DR IGNACY NOWOPOLSKI MAY 8
READ IN APP
 

Jak wiadomo są dwa sposoby gotowania żab:  jeden wrzucić je do wrzątku, wtedy żaby natychmiast wyskoczą, a drugi podgrzewać je stopniowo, wtedy nawet nie zauważą kiedy zostaną ugotowane.

Ta druga strategia jest stosowana przez globalistów z dużym powodzeniem, także w przypadku III RP.

Ponieważ od zarania Rzeczpospolitej, proces gotowania, w różnych aspektach i sprawach jest bez przerwy prowadzony w stosunku do Jej obywateli, nie będę poruszał starszych wątków, o których pisałem niejednokrotnie, ale skoncentruję się na teraźniejszości.

Trzeba tu nadmienić, że proces „gotowania” obywateli III RP oraz bardziej przyspiesza, wprost proporcjonalnie do degeneracji i zidiocenia „elit”.  To, że praktycznie bez wyjątku stanowią oni grupę karierowiczów i oportunistów, jest jeszcze do strawienia.  Niestety,  są oni również całkowicie bezmyślni i bezrefleksyjni.  Tak bardzo zajęci są podlizywaniem się swoim zagranicznym globalistycznym pryncypałom, tak bardzo absorbują się manewrami w uzyskiwaniu najlepszej i najbardziej „prestiżowej” pozycji przy żłobie, że nie mają czasu i szarych komórek na najprostszą nawet analizę, tego co dzięki ich zaprzaństwu czeka III RP, Jej obywateli i ich samych.

Nabrzmiewający temat, od wielu już lat stanowi „rosyjska agresja na naszą Ojczyznę”.  Osobiście unikam, jak cuchnącego łajna, mediów głównego nurtu, ale pomimo to rzucają mi się prawie codziennie w oczy alarmujące nagłówki, w rodzaju: „Polskie lotnictwo i nasi sojusznicy poderwali samoloty…..”.

Przypomina mi się wtedy dowcip, kiedy to dwu starszych panów pije koniaczek w kawiarni, a przy sąsiednim stoliku zainstalowały się młode atrakcyjne panienki.  „To co podrywamy te dupy?”-pyta jeden- „Podrywamy”- odpowiada drugi. Po czym poderwali swoje dupy i opuścili lokal. 

Identyczny efekt ma „podrywanie polskich i sojuszniczych samolotów”. Tyle, że panowie z dowcipu na nic oprócz śmieszności się nie narazili, podczas gdy obywatele III RP, za każdym takim „poderwaniem” zbliżają się o krok do nuklearnej zagłady

Naszym władcom i ich genialnym wojskowym, nawet przez myśl to nie przejdzie, gdy po „owocnym i pracowitym dniu”, raczą się ze swoimi lokalnymi nadzorcami, szklanką whisky.  Zapewne nawet nie wiedzą na czym polega wojna nuklearna i jakie ZAWSZE są jej efekty.  Delektują się w błogim spokoju własnym lizusostwem, sprytem i hipokryzją!

Ostatnio rozpoczął się dynamiczny proces gotowania polskiej żaby w odniesieniu do kolorowej emigracji z krajów III ŚWIATA.  Nie nagłaśnia się tego tematu, ale z samych obserwacji, bez trudu można zauważyć na polskich ulicach dosłownie codzienny wzrost liczby ciemnych buziaków  „drogich gości”.  Co prawda, w przeciwieństwie do naszych uwielbianych „partnerów” z Zachodu, Polska nigdy nie parała się wyzyskiem kolonialnym, ale co bystrzejsi polskojęzyczni euro – obywatele, mogą argumentować, że III Świat jest trzeci, tak jak III RP i to powinno wystarczyć!

W obecnej rzeczywistości III RP, trudno jest mieć choć cień nadziei na poprawę, ale za to pewność, że ,w najbliższym czasie, nasi nadzorcy „rządowi” i „parlamentarni” zaczną wdrażać jakiś kolejny proces „gotowania polskiej żaby”.

Kim jest Zelenski? Amerykański serial dokumentalny

Kim jest Zelenski? Amerykański niezależny serial dokumentalny

Autor: pokutujący łotr , 8 maja 2024

Kim jest Wołodymyr Zelenski? (Zelenski Zdemaskowany)

Amer. film dokumentalny Bena Swanna

cz.1 https://www.cda.pl/video/1997026287

cz. 2 https://www.cda.pl/video/19983097df

cz. 3 https://www.cda.pl/video/2000927755

===================================

Na razie tylko trzy odcinki z zapowiadanych kilkunastu, które są dostępne w sieci z polskim tłumaczeniem (lektor). Każdy odcinek to ok. 45 min. atrakcyjnie zrobionego dokumentu. Tekst rozwija się powoli i niektóre wątki są przywoływane ponownie w kolejnych odcinkach, jednak całość – już na tym wczesnym  etapie – przedstawia przerażający obraz zakulisowej gry wojennej, jaka toczy się za fasadą dla naiwnych.  Połączenia z najbrudniejszymi interesami globalistów, w tym rodziny Bidena i dlaczego ta oplatająca świat siatka łajdactw i zbrodni nie życzy sobie końca tej wojny.

Filmy zrobił amerykański dziennikarz śledczy Ben Swann, komentując to odważnie i ze swadą (trochę czasem irytującą, bo „pod publiczkę” amerykańską, ale można mu to wybaczyć). Pracował w przeszłości dla sieci FOX (prowadził tam własny segment informacyjny Reality Check, gdzie zasłużył się wywiadem z Obamą, demaskującym tzw. Kill List czyli listę proskrypcyjną Obamy przeciw osobom uważanym za „wrogie Ameryce”, za co musiał opuścić stację) oraz angielskojęzycznej sieci informacyjnej Russia Today będącej pod kontrolą Rosji, co mu bez przerwy wyciągają ścierki mainstreamowe (Swann to dla nich taka „ruska onuca” jak mniej więcej u nas Braun dla cyngli  Michnika – co tylko przynosi mu zaszczyt).

 Prowadzi teraz własną stację Truth In Media  i już położył zasługi w dekonspirowaniu m.in. takich afer jak kulisy zamachów na WTC,  użycie przez USA broni chemicznej podczas wojny w Syrii czy tzw. Pizzagate (waszyngtońska afera pedofilska związaną  z reżimem Clintonów). Teraz bez litości zajął się Zelenskim i całą siecią kłamstw wokół wojny upaińskiej.

Lektura obowiązkowa!!!

Tagi:Ben Swann, Igor Kołomojski, interesy amerykanskie, Joe Biden, prawda o wojnie na Ukrainie, ukraińskie byznesy, wojna na ukrainie, Zelensky

Kowidianie: Kwiczą, ale nie odszczekują…

Prof Norman Fenton @profnfenton

1. With the formal withdrawal of the AstraZeneca vaccine it’s appropriate to remind people of this double page spread in The Times, March 2021 that hailed the AstraZeneca vaccine as 100% effective. But note the article highlighted bottom right …….

„Pozytywna pedofilia” w rządzie Tuska. Każde dziecko powinno umieć wyrażać zgodę na seks.

Fundacja Pro-Prawo do życia
dr Anna Strzałkowska – przewodnicząca gdańskiej rady ds. równego traktowania.






Urząd Miasta Gdańsk przekazał właśnie 50 000 zł z publicznych pieniędzy na wsparcie organizacji LGBT „Tolerado”, której aktywiści współpracowali ze skazanym za pedofilię Piotrem K., byłym wiceprezydentem Gdańska ds. edukacji. Aktywiści LGBT i Piotr K. wdrażali w szkołach Gdańska tzw. „edukację seksualną” opartą o niemieckie standardy, które przewidują m.in. naukę dzieci wyrażania zgody na seks. 
Za pieniądze podatników aktywiści z Tolerado mają teraz „szkolić” nauczycieli i dyrektorów gdańskich szkół na temat „potrzeb” uczniów homoseksualnych. Gdańsk to obecnie jeden z lokalnych poligonów doświadczalnych, w których wdrażane są kolejne żądania deprawatorów. Docelowo to wszystko ma objąć dzieci w całej Polsce. Rząd Donalda Tuska już pracuje nad wprowadzeniem do wszystkich szkół „edukacji seksualnej”. W Gdańsku odpowiadał za to skazany za pedofilię wiceprezydent Piotr K., a w całej Polsce za wdrażanie „edukację seksualnej” odpowiada rządowy koordynator Zbigniew Izdebski, uczeń seksuologa opowiadającego się za legalizacją seksu dorosłych z dziećmi. To właśnie takie środowisko idzie po nasze dzieci. Po Pana dzieci, wnuki oraz dzieci przyjaciół i znajomych. Bierność oznacza zgodę.Kto chce edukować seksualnie nasze dzieci? [foto]

==========
Urząd Miasta Gdańsk zdecydował o przekazaniu 50 000 zł dotacji organizacji lobby LGBT Tolerado na projekt „Na równych zasadach”, w ramach którego aktywiści i „edukatorzy seksualni” mają organizować szkolenia dla dyrektorów szkół, nauczycieli i kadry szkolnej w zakresie m.in. „potrzeb” uczniów homoseksualnych.

Szkolenia te ma poprowadzić m.in. Anna Strzałkowska, założycielka Tolerado (na zdjęciu powyżej stoi na konferencji obok skazanego za pedofilię Piotra K.). Strzałkowska była razem z wiceprezydentem Gdańska Piotrem K. współprzewodniczącą gdańskiej „Rady ds. równego traktowania”.

Tydzień temu informowaliśmy o tym, że Piotr K. został nieprawomocnie skazany przez sąd za wykorzystanie seksualne małoletniego i doprowadzenie małoletniego do tzw. innej czynności seksualnej. Piotr K. brał udział w propagandowym wiecu „Jestem LGBT” organizowanym przez Tolerado oraz jako wiceprezydent Gdańska oficjalnie poparł zawiadomienie do prokuratury, jakie przeciwko naszej Fundacji złożyli aktywiści z Tolerado domagający się ukarania nas w związku z naszą akcją „Stop pedofilii”. Więcej o tej sprawie na naszej stronie

Przede wszystkim jednak Piotr K. jako wiceprezydent ds. edukacji odpowiadał za wdrożenie w gdańskich szkołach „edukacji seksualnej”. Jak sam przyznawał publicznie, jest ona oparta o opracowane w Niemczech Standardy Edukacji Seksualnej w Europie i powstała przy współpracy aktywistów LGBT. Przypomnijmy, że według autorów tych Standardów, dzieci mają posiąść „umiejętności negocjowania i komunikowania się w celu uprawiania bezpiecznego i przyjemnego seksu.” Jak niedawno powiedziała publicznie hiszpańska minister ds. równości: 

„Dzieci mają prawo wiedzieć, że mogą kochać i mieć relacje seksualne z kimkolwiek im się podoba.”

Wypowiedziany przez hiszpańską minister pogląd, jakoby dzieci powinny móc wchodzić w relacje seksualne z kimkolwiek im się podoba, w domyśle zakłada również wchodzenie w relacje seksualne z dorosłymi. Oczywiście minister zaraz dodała, że potrzebna jest na to świadoma zgoda dziecka. I właśnie tutaj pojawia się „edukacja seksualna”.

Wedle opracowanych w Niemczech Standardów Edukacji Seksualnej w Europie, dzieci już w wieku 6-9 lat mają dowiadywać się, że posiadają „prawa seksualne” oraz rozwijać zrozumienie tego, czym jest „akceptowalny seks”. Wcześniej, w wieku 4-6 lat, dzieci mają dowiedzieć się na temat tego, jak „wyrażać seksualność”, a także w jaki sposób rozwinąć „szacunek wobec różnych stylów życia” oraz „szacunek dla różnych norm związanych z seksualnością”. W praktyce sprowadza się to do tego, że już od pierwszych lat życia kształtuje się w dziecku pogląd, iż nie istnieją żadne normy w zakresie seksualności, rodziny i związków. Innymi słowy: róbta, co chceta, wszystko jest dozwolone. 

Zdaniem „edukatorów seksualnych” dozwolony jest zatem seks dorosłego z dzieckiem, o ile tylko dziecko wyrazi na to zgodę. „Edukacja seksualna” ma doprowadzić do tego, że dziecko nie tylko będzie potrafiło taką zgodę wyrazić, ale również będzie chciało wchodzić w rozmaite relacje seksualne, gdyż będzie do tego zachęcane, a także oswajane z rozmaitymi praktykami seksualnymi.

To, co dzieje się od lat w miastach takich jak Gdańsk to poligon doświadczalny  deprawatorów seksualnych i aktywistów radykalnej homo-lewicy. Przy pomocy usłużnych sobie polityków (takich jak np. skazany za pedofilię wiceprezydent Gdańska Piotr K.) wdrażają oni lokalnie rozwiązania, aby przetestować je przed przeforsowaniem ich odgórnie w całej Polsce. Teraz zdecydowali się przejść do kolejnego etapu anty-moralnej rewolucji. 

Decyzją rządu Donalda Tuska we wszystkich szkołach w Polsce ma być niemiecka „edukacja seksualna”, dla uśpienia czujności rodziców nazwana „edukacją zdrowotną”. Koordynatorem odpowiedzialnym za powstanie nowego przedmiotu został seksuolog Zbigniew Izdebski – uczeń Andrzeja Jaczewskiego, pioniera „edukacji seksualnej” w Polsce, który otwarcie opowiadał się za legalizacją seksu dorosłych z dziećmi powyżej 9 roku życia. Pogląd ten zbiega się z wytycznymi płynącymi z niemieckich Standardów, zgodnie z którymi 9-letnie dzieci powinny już znać pojęcie „akceptowalny seks” i zacząć uczyć się o pierwszych doświadczeniach seksualnych. Jak stwierdził „edukator seksualny” Jaczewski w jednym z wywiadów dla Gazety Wyborczej: 

„Dozwolone są wszystkie formy dotyku, które akceptuje zarówno dziecko, jak i dorosły.”

To nic innego, jak promocja tzw. „pozytywnej pedofilii”. Co to takiego?

Jeszcze kilkanaście lat temu niemal wszystkie media, w tym lewicowe, oburzały się, gdy tylko ktokolwiek podjął próbę mówienia o pozytywnych stronach pedofilii. Dla przykładu, w artykule tygodnika Wprost z września 2008 roku, a więc sprzed 16 lat, możemy przeczytać na temat projektu ustawy mającego na celu przeciwdziałanie temu zjawisku. Co ciekawe, autorem projektu anty-pedofilskiego byli wtedy politycy SLD. Jak jeszcze w 2008 roku definiowano „pozytywną pedofilię”?: 

„Pozytywni pedofile” uważają m.in., że dziecko posiada swoją seksualność i potrzebę jej wyrażania, a ich działania mają pomóc im w ich rozwinięciu. Treści propagowane przykładowo na stronach internetowych mówiących o +pozytywnej pedofilii+ dają do zrozumienia, że jeśli dziecko jest szczęśliwe, zadowolone i nie ma poczucia krzywdy, to takie działania są dla niego dobre.”

Tak było jeszcze w 2008 roku. Dzisiaj rozmaici „edukatorzy seksualni” i aktywiści radykalnej lewicy oficjalnie przyznają w ślad za niemieckimi Standardami Edukacji Seksualnej, że dzieci posiadają swoją seksualność oraz prawa seksualne, które powinny być respektowane i chronione, a sama „edukacja seksualna” ma pomóc dzieciom w rozwinięciu i wyrażaniu seksualności. Z kim dzieci mają wchodzić w relacje seksualne, do których tak zachęcają „edukatorzy”? Z kimkolwiek im się podoba. Tak szybko zmienia się „mądrość etapu!
Coś, co w 2008 roku było nie do pomyślenia, a politycy lewicy pisali projekty ustaw, aby to powstrzymać, dzisiaj jest nie tylko publicznie promowane, ale również wdrażane w całej Polsce. 

Pozytywna pedofilia” – właśnie tym jest w swojej istocie „edukacja seksualna”, którą rząd Donalda Tuska próbuje przeforsować we wszystkich szkołach w Polsce pod niepozorną nazwą „edukacji zdrowotnej”. W MEN oraz kilku innych ministerstwach trwają intensywne prace w tym kierunku. „Edukacja” oparta o takie standardy jest już od lat obecna w polskich miastach takich jak Gdańsk, gdzie za jej wdrażanie odpowiadał skazany za pedofilię Piotr K.  

To, czy deprawatorom uda się zrealizować swoje plany, zależy od oporu społecznego Polaków. Aby nasze społeczeństwo mogło zareagować, najpierw musimy dotrzeć do niego z ostrzeżeniem. Większość rodziców w ogóle nie zdaje sobie sprawy z ogromnych niebezpieczeństw związanych z „edukacją seksualną”. Czujność większości rodziców zostanie uśpiona nazwą nowego przedmiotu „edukacja zdrowotna”, przez co nieświadomi niczego rodzice zgodzą się na udział swoich dzieci w deprawacyjnych lekcjach. Trzeba budzić świadomość Polaków i mobilizować rodaków do działania!Wesprzyj powstanie broszury [foto]W tym celu nasza Fundacja kończy właśnie prace nad publikacją specjalną – krótką broszurą informacyjną ostrzegającą przed wprowadzeniem w polskich szkołach „edukacji seksualnej”. Nasza broszura opisuje:
– czym jest „edukacja seksualna” oparta o niemieckie Standardy i czego wg. nich mają uczyć się polskie dzieci (m.in. masturbacji i wyrażania zgody na seks),
– że „edukację seksualną” w Polsce chcą wprowadzić środowiska opowiadające się za legalizacją seksu dorosłych z dziećmi,
– co zrobić, aby chronić swoje dzieci.
Chcemy, aby broszura była dostępna dla każdego za darmo i aby każdy mógł rozdać ją swoim znajomym, nauczycielom, dyrektorom szkół itp. Publikacja przede wszystkim powinna trafić do rodziców i nauczycieli. Na jej ukończenie potrzebujemy ok. 15 000 zł.Media głównego nurtu będą intensywnie promować „edukację seksualną” i zachęcać rodziców do posyłania dzieci na zajęcia.

Dlatego proszę Pana o przekazanie 50 zł, 100 zł, 200 zł, lub dowolnej innej kwoty, aby umożliwić nam ukończenie publikacji za pomocą której w sposób niezależny dotrzemy do Polaków z ostrzeżeniem przed „edukacją seksualną” forsowaną odgórnie we wszystkich szkołach.

 Numer konta: 79 1050 1025 1000 0022 9191 4667
Fundacja Pro – Prawo do życia
ul. J. I. Kraszewskiego 27/22, 05-800 Pruszków
Dla przelewów zagranicznych – Kod BIC Swift: INGBPLPW
Standardy, na podstawie których polskie dzieci mają być „edukowane seksualnie”, przewidują, że każde dziecko powinno umieć wyrażać zgodę na seks.

Umiejętność wyrażania przez dzieci zgody na seks nie jest potrzebna dzieciom. Jest potrzebna pedofilom.
 Dlatego konieczny jest stanowczy opór wobec planów deprawatorów i dotarcie do Polaków z ostrzeżeniem. Proszę Pana o wsparcie naszej akcji. Z wyrazami szacunkuMariusz Dzierżawski
Fundacja Pro – Prawo do życia
ul. J. I. Kraszewskiego 27/22, 05-800 Pruszków
stronazycia.pl
==============

mail:

I przypominamy kolejne przemówienie z wiecu #Jestem LGBT – przed Wami dr Anna Strzałkowska – przewodnicząca gdańskiej rady ds. równego traktowania.

Jej Tolerado:

Piotr Stanisław Kowalczuk – samorządowiec, urzędnik i pedagog. W latach 2014–2020 zastępca prezydenta m. Gdańska.

Piotr Stanisław Kowalczuk (ur. 15 czerwca 1976 w Gdańsku[2]) – polski samorządowiec, urzędnik i pedagog. W latach 2014–2020 zastępca prezydenta m. Gdańska.

https://pl.wikipedia.org/wiki/Piotr_Kowalczuk

Życiorys

Wykształcenie i praca zawodowa

Ukończył Szkołę Podstawową nr 76[3], a następnie IV Liceum Ogólnokształcące w Gdańsku. Absolwent Uniwersytetu Gdańskiego oraz Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Przez ponad 12 lat pracował jako pedagog, wychowawca dzieci niepełnosprawnych oraz wykładowca na uczelniach wyższych. Prowadził audycję społeczno–edukacyjną w Radiu Plus Rodzice na Plusie. W 2010 został kierownikiem referatu komunikacji społecznej Urzędu Miasta Gdańska. Był członkiem Komisji Unii Metropolii Polskich ds. Rozwoju Społeczeństwa Obywatelskiego oraz członkiem Zespołu Rzecznika Miejsko–Wojewódzkiego Sztabu Operacyjnego EURO 2012. W 2013 był zastępcą dyrektora wydziału edukacji w UMG. Pełnił funkcję pełnomocnika prezydenta Gdańska Pawła Adamowicza ds. inicjatyw i konsultacji społecznych. Był jednym z organizatorów gdańskiego Budżetu Obywatelskiego, który po raz pierwszy odbył się w 2013. Od kwietnia do grudnia 2014 kierował nowo powstałym wydziałem rozwoju społecznego w UMG[4]. Od 1 marca 2021[5][6] do 30 stycznia 2023 był pracownikiem biurowym Uniwersytetu Gdańskiego (od 1 marca 2021 do 12 grudnia 2022 w Biurze Współpracy z Otoczeniem Społeczno-Gospodarczym, a następnie do 30 stycznia 2023 w Biurze Gdańskiego Uniwersytetu Trzeciego Wieku)[7].

Działalność publiczna

Funkcję wiceprezydenta Gdańska ds. polityki społecznej objął w grudniu 2014. Poinformował o tym prezydent Paweł Adamowicz podczas sesji Rady Miasta Gdańska, na której odbyło się zaprzysiężenie go na prezydenta miasta. Piotr Kowalczuk na funkcji wiceprezydenta zastąpił Ewę Kamińską[8]. Został przewodniczącym Komisji ds. Rozwoju Społecznego Obszaru Metropolitalnego Gdańsk Gdynia Sopot, członkiem komisji branżowych Unii Metropolii Polskich, delegatem Miasta Gdańska w Związku Miast Polskich oraz członkiem Zarządu Krajowego Polskiego Komitetu Światowej Organizacji Wychowania Przedszkolnego OMEP. W wyborach samorządowych w 2018 wystartował do rady miasta Gdańska z ramienia stowarzyszenia Wszystko dla Gdańska, otrzymał 2014 głosów i nie zdobył mandatu radnego[9]. Ponownie został mianowany zastępcą prezydenta Gdańska ds. polityki społecznej. W styczniu 2019, po zamachu na prezydenta miasta Gdańska Pawła Adamowicza, przestał pełnić obowiązki wiceprezydenta z powodu wygaśnięcia mandatu. W styczniu tego samego roku został powołany na stanowisko zastępcy prezydenta przez komisarz miasta Aleksandrę Dulkiewicz[10]. W imieniu władz miasta wkrótce po zamachu spotkał się z matką zabójcy prezydenta Pawła Adamowicza, po spotkaniu nawoływał do zaprzestania obrażania rodziny zamachowca[11]. Po wygranej Aleksandry Dulkiewicz w wyborach uzupełniających został zastępcą prezydenta miasta Gdańska ds. edukacji i usług społecznych[12]. Podczas strajku nauczycieli w 2019 napisał list do pierwszej damy Agaty Kornhauser-Duda, z prośbą o pomoc w rozmowach między strajkującymi nauczycielami a rządem[13]. Był współprzewodniczącym Gdańskiej Rady ds. Równego Traktowania[14]. W listopadzie 2020 zrezygnował ze stanowiska wiceprezydenta Gdańska[15].

Działalność charytatywna

Był ambasadorem Funduszu Dzieci Osieroconych Fundacji Hospicyjnej[16] oraz programu Tumbo Pomaga[17], a także wolontariuszem Wielkiej Orkiestry Świątecznej Pomocy[18].

Odznaczenia i wyróżnienia

W kwietniu 2009 został wyróżniony Nagrodą im. Marii Weryho-Radziwiłłowicz, przyznawaną przez miesięcznik Bliżej Przedszkola, za cykl audycji radiowych Rodzice na Plusie emitowanych w Radiu Plus[19]. W 2018 został odznaczony Odznaką Honorową za Zasługi dla Ochrony Praw Dziecka[20]. Również w tym samym roku został ojcem chrzestnym, specjalnie wyselekcjonowanej naturalnej, bryły bursztynu nazwanej Leonardo Gedanensis[21][22]. W 2019 został wyróżniony Honorową odznaką  Złoty Czepek, która jest wyróżnieniem nadawanym przez środowisko pielęgniarek i położnych[23].

Postępowania sądowe i prokuratorskie

W sierpniu 2021 Prokuratura Rejonowa Gdańsk Oliwa wszczęła śledztwo, a następnie oskarżyła go o seksualne wykorzystanie zależności wobec małoletniego – z art. 199 par. 3 kodeksu karnego. Po postawieniu zarzutów prokurator zastosował wobec niego środek zapobiegawczy w postaci zakazu kontaktowania się z pokrzywdzonym w jakiejkolwiek formie oraz zakazu zbliżania się do pokrzywdzonego na odległość mniejszą niż 50 metrów. Śledztwo prokuratury zostało zakończone 30 grudnia 2022 poprzez skierowanie do sądu aktu oskarżenia[24]. Proces w tej sprawie rozpoczął się przed gdańskim sądem 30 stycznia 2024[25]. W kwietniu tego samego roku został skazany na rok więzienia w zawieszeniu na trzy lata. Wyrok jest nieprawomocny[26].

Życie prywatne

Żonaty, ma córkę[27]. Jest Honorowym Dawcą Krwi[28].’

=======================================

Protokół z pierwszego posiedzenia

Gdańskiej Rady ds. Równego Traktowania

w dniu 8 września 2016 roku

Termin08.09.2016 r.
MiejsceUMG (sala 107)
Paweł Adamowicz – Prezydent Miasta Gdańska
Piotr Kowalczuk – Współprzewodniczący GRRT
Anna Strzałkowska – Współprzewodnicząca GRRT
Krzysztof Bajdan – Sekretarz GRRT
Wiesław Baryła – członek GRRT
Beata Dunajewska – członek GRRT
Ewa Kamińska – członek GRRT
Zofia Lisiecka – członek GRRT
Joanna Orłowska – członek GRRT
Mirosław Patalon – członek GRRT
Elżbieta Jachlewska – członek GRRT
[—]