Opowieść o geodetach nieba, czyli jak mierzono Wszechświat.

Opowieść o geodetach nieba, czyli jak mierzono Wszechświat.

Autor: stan orda , 10 maja 2024 ekspedyt/opowiesc-o-geodetach-nieba-czyli-jak-mierzono-wszechswiat

Początek tytułowych pomiarów sięga połowy III wieku przed narodzeniem Chrystusa, czyli nieomal czasów 126 olimpiady  (lata 276-273 a.Ch.n.; łac.:  ante Christum natum). W miejscowości  Cyrene, która wówczas była jedną z greckich kolonii na afrykańskim wybrzeżu Morza Śródziemnego, urodził się Eratostenes, który jest zaliczany do grona najwybitniejszych myślicieli czasów starożytnych (obok Archimedesa, Euklidesa, Pitagorasa i Ptolemeusza).
(Cyrene; współcześnie libijskie Shahhat, położone, mniej więcej, w połowie drogi pomiędzy miastami Banghazi (Bengazi) a Tubruq (Tobrukiem);
Eratostenes; 275-194 a.Ch.n., filozof, geograf, matematyk, poeta. Edukował się w Liceum i Nowej Akademii w Atenach. Pracował w Bibliotece Aleksandryjskiej, a po śmierci Apolloniosa z Rodos objął w niej stanowisko Głównego Bibliotekarza (lata 246 -197 a.Ch.n.).

W oparciu o największe dziedzictwo słowa pisanego w świecie antycznym, które zgromadzone zostało w zbiorach Biblioteki Aleksandryjskiej, posiadł niebywale rozległą wiedzę o współczesnym mu świecie. Mógł w tym celu korzystać z danych źródłowych, jak np. bezpośrednie relacje napisane przez podróżników, kupców, żeglarzy, a również zapiski dowódców wojskowych lub ich kronikarzy, w tym uczestników kampanii wojennych Aleksandra Macedońskiego. I, oczywiście, dokumentów sporządzonych przez pokolenia logików, filozofów, matematyków, czyli myslicieli , którzy reprezentowali najbardziej różnorodne szkoły i koncepcje.

Dla niniejszego opowiadania istotne jest to, że Eratostenes zmierzył obwód i średnicę Ziemi z dokładnością różniącą się o mniej niż pięć procent od współczesnych pomiarów satelitarnych tych wielkości. Jest to wynik zadziwiająco dokładny, a możliwy był do uzyskania dzięki zastosowaniu poprawnej metody wykorzystującej stałe relacje geometryczne. Eratostenes ekstrapolował dane uzyskane metodą triangulacji zastosowanej lokalnie na rozmiar całej Ziemi. A oto jakiego rodzaju oprzyrządowanie miał do swojej dyspozycji: długość cienia rzucanego przez pręt w Aleksandrii oraz długość takiego cienia na dnie wyschniętej studni w Syene (dzisiejszy Asuan), w momencie gdy Słońce znajduje się w zenicie.

Eratostenes przyjął do swoich wyliczeń, iż obie miejscowości, które znajdują się w Egipcie, położone są na tej samej długości geograficznej. Nie jest tak dokładnie, ale odchylenie jest niezbyt znaczne i wynosi około 2,5 stopnia. Badacz przyjął poprawne założenie, że gdyby Ziemia była płaska, wówczas długość cienia rzucanego przez pręty o tej samej porze dnia, zarówno w Aleksandrii jak i w Asuanie, byłaby jednakowa. Rzecz jasna, długość rzucanego cienia była różna. Z otrzymanej różnicy wyprowadził kąt krzywizny Ziemi,  znając zaś  dystans dzielący od Syene do Aleksandrii (w linii prostej ok. 800 km) mógł obliczyć pełny obwód ziemski, a następnie promień planetarny. Przykład  Eratostenesa wskazuje, że najważniejszy jest pomysł, czyli znalezienie właściwej metody pozwalającej wykorzystać dane, które są dostępne. Wielu ludzi angażowało się w poszukiwanie najbardziej adekwatnej metody dla zmierzenia tego, czego nie dawało się pomierzyć bezpośrednio, a nawet przy braku właściwego punktem odniesienia. Ludzi takich określamy mianem naukowców.

Niemal wszyscy wiedzą, iż koncepcję heliocentryczną wprowadził do obrazu świata Mikołaj Kopernik, ale już daleko nie wszyscy, że znacznie wcześniej, bo w III wieku a.Ch.n., czyli 17 wieków przed kanonikiem z katedry we Fromborku, taki model wszechświata zaproponował Arystarch z Samos.
(320 – 250 a.Ch.n., astronom grecki urodzony na wyspie Samos; pracujący w Aleksandrii. Daty jego urodzin i śmierci są podawane z dokładnością plus minus 10 lat. Zaproponował heliocentryczny model układu planetarnego oraz poprawnie oszacował odległość od Ziemi do Księżyca i błędnie odległość od Ziemi do Słońca).

Arystarch, korzystając z wielkości kątowych cienia Ziemi podczas zaćmienia Księżyca, oszacował średnicę naturalnego satelity Ziemi oraz doń odległość. Uwzględniając poziom i rodzaj  przyrządów technicznego, którymi mógł dysponować dla określenia rozmiarów kątowych Księżyca i Ziemi oraz możliwej do uzyskania dokładności w obliczeniach wysokości kątowej „środka” Księżyca nad horyzontem, osiągnął więcej niż poprawny wynik, bliski współczesnym danym, uzyskiwanym przy wykorzystaniu teleskopów, satelitów oraz zaawansowanej techniki laserowej. Czyli  w tamtym czasie nikt nie zdołałby wykonać bardziej dokładnych obliczeń. Niestety, publikacje Arystarcha prawie w całości spłonęły wraz ze zbiorami Biblioteki Aleksandryjskiej, czyli zostały na bardzo długi czas zapomniane. Problem w tym, że należały one do koncepcji typu filozoficznego i nie mogły być podstawą wyliczeń pozycji planet w poszczególnych momentach roku. Oznacza to, iż koncepcja Arystarcha, w przeciwieństwie do koncepcji Kopernika, była ideą bez możliwości jej zastosowania w praktyce.

A właśnie model kopernikański umożliwiał tego rodzaju obliczenia. Ponadto propozycja Kopernika związana była z pilną potrzebą uproszczenia rachuby coraz dalej idących korekt wynikających z rosnącego niedopasowania modelu geocentrycznego do realnie obserwowanych pozycji planet. W modelu kopernikańskim nastąpiła zamiana punktu odniesienia dla obliczania pozycji obserwatora (z Ziemi na Słońce), co zdecydowanie uprościło życie np. kapitanom statków morskich.  Od codziennego ustalania pozycji na morzu poprzez określanie wysokości Słońca nad horyzontem bardzo wielu z nich traciło dosyć szybko wzrok w jednym oku, a wcale nie w wyniku starć z piratami).

Kryterium funkcjonalności powodowało, że model kopernikański znalazł zastosowanie praktyczne, bez względu na to, czy poprawnie odwzorowywał on rzeczywistość. Tak zasadnicza zmiana w postrzeganiu usytuowania Ziemi i miejsca człowieka we wszechświecie nie mogła odbyć się szybko i bez problemów. I mimo iż  model Kopernika miał już zastosowanie w praktyce, to wciąż paradygmatem decydującym o obrazie świata, aż do epoki lunet i teleskopów, były idealistyczne założenia Platona, Eudoksosa i Arystotelesa, oraz jako ich konsekwencja, skonstruowany przez Ptolemeusza geocentryczny model świata z jego centralnym miejscem – Ziemią.
(Eudoksos z Knidos, ok. 408 – 355 a.Ch.n., astronom, matematyk, filozof, geograf. Twórca koncepcji sfer dla wyjaśnienia ruchu Ziemi, Słońca, Księżyca oraz pięciu ówcześnie znanych planet)

Przez bardzo długie wieki uczeni zajmujący się astronomią nie byli w stanie wyobrazić sobie, iż gwiazdy są tak bardzo odległe od Słońca. Z tego względu decydującym argumentem za tym, iż to Ziemia, a nie Słońce stanowi centrum świata, był właśnie fakt, iż nie dawało się zauważyć żadnej zmiany w pozycjach gwiazd. Starożytni matematycy i astronomowie zdawali sobie sprawę, że gdyby Ziemia obiegała Słońce, wówczas musiałaby następować zmiana pozycji gwiazd przy ich obserwowaniu z różnych miejsc ziemskiej orbity wokółsłonecznej w przeciągu roku kalendarzowego. A skoro takich zmian nie dawało się zaobserwować, wysuwali oczywisty wniosek, że Ziemia „nie porusza się”. Zakładali, że gdyby Ziemia odbywała wokółsłoneczny pasaż, musieliby dostrzec zmianę miejsca gwiazd na niebie i zmierzyć  dla nich ich kąt paralaksy .
(paralaksa
w astronomii oznacza pozorną zmianę miejsca obserwowanego obiektu na niebie względem innych obiektów, związaną ze zmianą miejsca przez obserwatora; zob. Appendix pkt 2).
Metoda i rozumowanie starożytnych było prawidłowe, ale nie dysponowali wystarczająco zaawansowanymi instrumentami do zaobserwowania i zmierzenia takiego efektu z uwagi na faktyczny dystans do gwiazd, a co zatem idzie, niemierzalną w ich epoce wielkość paralaksy. Z tego właśnie powodu odrzucali model heliocentryczny, jako nie mający potwierdzenia logicznego jak i obserwacyjnego. Jak z tego wynika, nazwa „sfera gwiazd stałych” była do epoki teleskopów w pełni uzasadniona.

W modelu Ptolemeusza odległość do sfery gwiazd stałych (po przeliczeniu greckich stadiów/stadionów na kilometry) wynosiła ok. 80 milionów km, gdy w rzeczywistości odległość do najbliższej gwiazdy (widocznej gołym okiem) wynosi ok. 42 bilionów km. Czyli niedoszacowanie w modelu geocentrycznym wynosiło ponad pół miliona razy. Z kolei w modelu kopernikańskim, aby zachować założenie jego spójności, odległość z modelu ptolemejskiego musiała zostać powiększona do ok. 300 miliardów km, ale i wówczas, błąd oszacowania (odniesiony do dystansu od najbliższej z dostrzegalnych gwiazd) wynosił nadal ok. 130 razy. Należy zastrzec, iż rozmaici autorzy podawali rozmaite wielkości oszacowań dla takich odległości. Ja podaję wersję autorstwa XVII-to wiecznego astronoma -zakonnika Giovanni Battisty Ricciolli’ego SJ, który choć był przeciwnikiem teorii kopernikańskiej, to w zakresie dokładności pomiarów nie miał ówcześnie konkurencji.

Warto sobie uzmysłowić, iż 50 lat po śmierci Kopernika, czyli na początku XVII wieku, żyło w Europie zaledwie 10 uczonych, którzy przyjmowali jego model jako bardziej poprawny od geocentrycznego. I chociaż zaobserwowanie pojawienia się na nieboskłonie nieznanej dotychczas, nowej gwiazdy przez Tychona Brahe w AD 1572 oraz w następnych latach kilku komet, utworzyło rysę na idealnym świecie sfer arystotelesowskich, to konsekwencje tego mogły być dyskutowane wyłącznie w nielicznym światku astronomów.
(Tyge Ottesen Brahe; 1546-1601, astronom duński. Autor zmodyfikowanej koncepcji geocentrycznej)

Do faktycznego przełomu w dziedzinie obrazu kosmosu trzeba było zaczekać aż do początków epoki oka uzbrojonego, czyli do wiosny  AD 1610 i Galileusza, który korzystając z lunety o kilkukrotnym powiększeniu, ujrzał cztery księżyce Jowisza. Już kilka lat później zaczęto używać pierwszych lunet o kilkudziesięciokrotnym powiększeniu, a w latach 30-tych XVII stulecia pojawiły się pierwsze teleskopy astronomiczne. W końcu XVII wieku były już w użyciu teleskopy o długości tuby dochodzącej do 10 stóp.
 (stopa – ang. foot ; współcześnie jednostka miary o dł. 30,48 cm. Dawniej w różnych krajach jej długość wahała się w granicach 30 cm (plus minus 2 cm).

U progu epoki teleskopów rozpoznanie poprawnych odległości do ciał niebieskich i ich wielkości dotyczyło tylko Ziemi i Księżyca. Prawa Keplera poprawnie oddawały mechanikę nieba i wokółsłonecznego ruchu planet Układu Słonecznego, ale można było z nich wyprowadzić tylko względne odległości dla planet, a ich wszystkich od Słońca. Czyli, korzystając z proporcji keplerowskich można było ustalić, iż planeta A jest najbliżej Słońca, a planeta B jest trzy razy  dalej niż planeta A.

Ale  nie wiedziano jak   zmierzyć, ile wynosi w km odległość planety A od Słońca, a w konsekwencji odległości do innych planet. Oznaczało to, że nie istniał jeszcze sposób, który pozwalałby na określenie, jak duże są to obiekty i jak daleko się one znajdują. Na podstawie pewnych pośrednich wnioskowań, opartych na rozmiarach cienia Ziemi podczas zaćmień Księżyca, próbowano oszacować rozmiary i odległość do Słońca, ale nie dysponowano danymi  pozwalającymi na  stwierdzenie ich poprawności. W jeszcze większym stopniu niepewność taka odnosiła się do rozmiarów i odległości poszczególnych planet. Dopiero wykorzystanie do obserwacji teleskopów, najpierw soczewkowych (refrakcyjnych), a później także zwierciadłowych, spowodowało iż wszystkie problemy, dotychczas nierozwiązywalne, zostały rozstrzygnięte w dosyć szybkim tempie, czyli można było obliczyć odległości i wielkości głównych obiektów w Układzie Słonecznym.

Walnie przyczynił się do tego pierwszy dyrektor obserwatorium paryskiego. Gdy na arenie technicznych osiągnięć cywilizacji pojawiły się teleskopy, od razu zaczęły odgrywać decydującą rolę w badaniach nieba. Jak wiadomo, są to urządzenia duże oraz drogie i w zasadzie takie były zawsze. W drugiej połowie XVII wieku na zakup sporego teleskopu o długości tuby wynoszącej kilkadziesiąt stóp, stać było jedynie bogatych monarchów, a do takich należał bez wątpienia król Francji Ludwik XIV. Królewskie Obserwatorium w Paryżu wyposażył w kilka tych dużych  instrumentów i był bardzo zainteresowany badaniami Słońca, gdyż monarcha ten eksponował przecież publicznie swój wizerunek jako Król-Słońce. Ten rodzaj public relation stanowił istotny powód, iż ów król nie żałował grosza na badania w dziedzinie astronomii. W nowo wybudowanej placówce król zatrudnił od 1671 r. na stanowisku dyrektora tej placówki Giovanni Domenico Cassiniego, który specjalizował się, między innymi, w budowie zegarów słonecznych. Król  swoją pierwszą propozycję objęcia dyrektorowania w obserwatorium paryskim skierował do gdańskiego astronoma Jana Heweliusza, który jej nie przyjął.
(Giovanni Domenico Cassini; 1625-1712; włoski matematyk i astronom, dyrektor obserwatorium paryskiego w latach 1671-1712; odkrył cztery księżyce Saturna, pierścienie Saturna oraz zmierzył odległość od Ziemi do Marsa)
Cassini postanowił spróbować zmierzyć paralaksę Marsa i wówczas wyliczyć odległość do tej planety, wykorzystując nadarzającą się okazję, gdy latem AD 1672 planeta ta znajdzie się najbliżej Ziemi, a następnie odległość do Słońca, korzystając ze stosowanych w triangulacji prostych reguł trygonometrii. W tym celu należało wykonać jednoczesny pomiar kąta pod którym widać Marsa z dwóch odległych od siebie miejsc na Ziemi. Jednym z nich było paryskie obserwatorium, drugim zaś faktorie handlowe w Cayenne (Gujana Francuska), dokąd udał się drogą morską Jean Richer, współpracownik Cassiniego. Odległość pomiędzy Paryżem a Cayenne była podstawą trójkąta, którego wierzchołek stanowiła planeta Mars. Po wielu perypetiach, związanych z interpretacją danych, Cassini w AD 1673 ogłosił, iż odległość do Słońca wynosi 140 milionów km (wg współczesnych pomiarów wynosi ona 149,5 mln km). Czyli była to odległość 43 razy większa, niż przyjmowana w modelu kopernikańskim.

Astronomowie ówcześni zdawali sobie sprawę, że dokładność obliczeń przy zastosowanych metodach pomiaru może wzbudzać wątpliwości, toteż starali się potwierdzić lub zanegować osiągnięty wynik, ale otrzymywali rezultaty podobne do podanych przez Cassiniego. Rozmiar świata (tego najbliższego) bardzo wówczas wyogromniał, a co więcej, nie były to już tylko mocno niepewne szacunki odnośnie istniejących odległości. Chociaż nadal nie dało się liczyć bardzo dokładnie (precyzja przyrządów pomiarowych jeszcze tego nie umożliwiała), ale nie były to wielkości zupełnie dowolne i mniej czy bardziej wyimaginowane.

Jeszcze o jednym pomiarze warto wspomnieć, który będzie pełnić ważną rolę w dalszej części tej opowieści. Mniej więcej w tym samym czasie (AD 1676) duński astronom Olaf Roemer (1644-1710), jako pierwszy pomierzył prędkość światła i uzyskał wynik w granicach 75% aktualnej wielkości. Otóż zauważył on, iż czas zniknięcia księżyców Jowisza za tarczą tej planety zmienia się zależnie od odległości Jowisza od Ziemi. Założył, iż pozorne opóźnienie obrazu zaćmień wynika z prędkości światła docierającego do obiektywu teleskopu. Im Jowisz znajduje się dalej od Ziemi, tym większe jest takie opóźnienie. Otrzymał wynik wynoszący 225 000 km/sek., podczas gdy wg pomiarów współczesnych, uzyskanych z wykorzystaniem zegarów atomowych, promieni lasera, teleskopów kosmicznych i misji satelitarnych, prędkość światła w próżni została określona na 299 792 km/sek. Rezultat uzyskany przez Roemera był niezbyt dokładny, ale tylko taki stopień precyzji można było osiągnąć, przy zastosowaniu dostępnych wówczas urządzeń. Tak więc na początku XVIII wieku astronomowie znali odległość tylko do jednej gwiazdy, tj. do Słońca.

Podejmowane próby obliczenia paralaksy dla innych gwiazd, przy wykorzystaniu ówczesnych przyrządów nie dawały rezultatu, dlatego poszukiwano innego sposobu, który mógłby być użyteczny do tego celu. Skorzystano z pomysłu Izaaka Newtona, gdyż  on odkrył zasadę, która mogła zastąpić nieefektywne pomiary paralaksy. Zasadą taką była zależność, iż jasność źródła światła zmienia się zgodnie z „prawem odwrotności kwadratu”. Ilustruje to sytuacja, w której umieszczamy dwie świecące żarówki 100-watowe w jednakowej odległości od obserwatora, a następnie jedną z nich przeniesiemy na odległość dwa razy większą. Jasność obserwowana żarówki przeniesionej będzie 4 razy mniejsza niż żarówki, która została na poprzednim miejscu. Zasada ma również zastosowanie w sytuacji odwrotnej, czyli jeśli wiemy, że gdzieś świecą żarówki o tej samej mocy i zmierzymy odległość do jednej z nich (nasze Słońce), zaś z pomiaru jasności innej żarówki (gwiazdy) wyniknie, iż świeci ona 4 razy słabiej, to oznacza, że znajduje się ona dwukrotnie dalej, niż żarówka (gwiazda) do której znamy odległość. Ta zasada dawałaby poprawne wyniki, gdyby wszystkie żarówki (gwiazdy), które świecą z taką samą mocą, miały takie same rozmiary i na dodatek nie poruszały się. Z punktu dzisiejszego stanu wiedzy założenia takie były kompletnie niezgodne z rzeczywistością. Ale wówczas, z braku jakichkolwiek danych w tym względzie, początkowo przyjęto ten sposób.

Od momentu „podpowiedzi” udzielonej przez Newtona, astronomowie nie byli już skazani na korzystanie tylko z jednej metody opartej na pomiarach paralaksy. W latach 20-tych XVIII wieku angielski astronom Edmund Halley (ten od znanej komety) porównał zapisy o pozycjach gwiazd, znajdujące się w pismach Ptolemeusza, ze zmierzonymi przez siebie pozycjami tych samych gwiazd. Okazało się, że dla kilku gwiazd odchylenie było na tyle istotne, iż wskazywało na istnienie ich ruchu własnego. Wielkość odchylenia nie mogła być wyjaśniona brakiem precyzji zapisów dokonanych w starożytności, gdyż dla pozostałych przypadków zapisy odnoszące się do ich pozycji nie wskazywały na istnienie odchyleń. Dlaczego zatem naniesienie pozycji akurat dla tych kilku miałoby okazać się niepoprawne? W ten sposób, z mrowia gwiazd na niebie, można było wytypować te, dla których warto było spróbować wyliczyć wielkość  paralaksy. Halley spróbował, ale nie dał rady wyliczyć. Przyrządy, którymi dysponował,  miały wciąż zbyt małą rozdzielczość.

Pierwsze poprawne pomiary paralaksy dla  trzech gwiazd wykonane zostały dopiero w latach 1839-1840, czyli już w epoce zaawansowanych teleskopów i precyzyjnych siatek mikrometrycznych (siatka zakładana na okular teleskopu). Siatki te pozwalały na dokładne oznaczanie pozycji gwiazd na nieboskłonie, czyli dla astronomów stanowiły niezbędne oprzyrządowanie, bez którego wcześniej nie było możliwości wykonywania pomiarów z wystarczającą dokładnością. Poprawne pomiary paralaksy musiały ponadto uwzględnić i skorygować efekty wahania w ruchu Ziemi wokół Słońca (tzw. aberracja, którą wykrył angielski astronom James Bradley) oraz zakłócenia w ruchu Ziemi wokół własnej osi spowodowane tym, że Ziemia nie ma idealnie sferycznego kształtu (efekt nutacji). Okazało się, że wielkość zmierzonych paralaks stanowi ułamek sekundy kątowej, co oznaczało, że gwiazdy te, jakkolwiek relatywnie bliskie Słońcu, dzieli od nas niewyobrażalnie daleki dystans.
(wielkość kątowa; koło dzieli  się na 360 stopni, stopień odpowiednio o 60 minut, minuta 60 sekund, co oznacza , iż pełne koło zawiera 1.296.000 sekund kątowych)
Gdy astronomowie poznali odległości do  kilku gwiazd, mogli wyliczyć wielkość ich jasności absolutnej. Z obliczeń wynikło, że każda z nich świeci z inną mocą, wobec czego zasada podana przez Newtona nie może być powszechnie stosowana. Można byłoby ją zastosować jedynie w przypadku do jednorodnych grup gwiazd. Ale jaki parametr byłby charakterystyczny dla oceny stopnia jednorodności? Okazało się, że istnieje taka cecha.

Wskazał ją w początkach XIX wieku, bawarski chemik, optyk i konstruktor Joseph von Fraunhofer. Były to linie widmowe, które obserwowane są w widmie każdego gorącego ciała, gdy światło pochodzące od tego ciała rozdzielimy na pryzmacie. Gdy ciało, które jest rozżarzone, otacza atmosfera chłodniejszego gazu, wówczas gaz absorbuje w obrazie widma te kolory, które emitowałby sam, gdyby był rozgrzany do tej samej temperatury. W przypadku różnicy temperatur na obrazie widma występują ciemne prążki. Porównując rozkład prążków dla konkretnego widma, można stwierdzić jaki gaz (lub gazy) składają się na atmosferę np. gwiazdy. Każdy gaz absorbuje ściśle określone, swoiste częstotliwości widma, coś  jakby odcisk linii papilarnych danego obiektu (w naszym przypadku gwiazdy). A ponadto bez względu na to jak daleko się on znajduje, pod warunkiem, iż uzyskana jakość widma pozwoli na rozróżnienie w nim takich linii.
(Joseph von Fraunhofer ;1787-1826; fizyk i astronom bawarski, pierwszy zmierzył heliocentryczną paralaksę Słońca).
Można przyjąć, iż astronomia obserwacyjna przekształciła się wraz z wykorzystaniem, poza matematyką, także fizyki i chemii, w zaawansowaną naukę od momentu wyjaśnienia w pierwszej połowie XIX wieku przez austriackiego fizyka Christiana Dopplera przesunięć linii absorpcyjnych w widmach gwiazd. Doppler wykazał, iż ruch źródła światła w kierunku do obserwatora powoduje przesunięcie w stronę fioletowego koloru widma, zaś ruch od obserwatora przesunięcie w stronę czerwonego koloru widma. A gdy w XIX w. do badań kosmosu dołączyło się jeszcze wykorzystanie kolejnego wynalazku, jakim była fotografia, mogła na dobre rozpocząć się epoka astrofizyki.

Na progu XX wieku, astronomowie znali w przybliżeniu odległości zaledwie do kilkunastu gwiazd bliskich Słońcu, a możliwy do osiągnięcia stopień rozdzielczości w pomiarze paralaksy pozwalał na określanie odległości maksymalnie do 100 lat świetlnych, z marginesem błędu zwiększającym się wraz z mierzoną odległością. Pomiary dotyczące odległości obiektów bardziej oddalonych były bardzo niedokładne. I nadal nie znano odpowiedzi na pytanie, czy nasz Układ Słoneczny stanowi część struktury, będącej całym wszechświatem, ani też jak duże posiada ona rozmiary.

W  tekście często używany jest termin paralaksa. Jednak co takiego on oznacza w przystępnym wyjaśnieniu. Otóż pewnie każdy próbował patrzeć na jakiś przedmiot zakrywając raz prawe, a raz lewe oko. Jeśli ten przedmiot stał np. na półce znajdującej się w pewnej odległości od nas, a jeszcze na tej samej półce znajdował się obok np. wazon, wówczas patrząc na przedmiot, przy zmianie oka, widzielibyśmy go w innej odległości od wazonu. Wielkość różnicy tej odległości mierzonej od punktu odniesienia, czyli wazonu i miejscem, z którego patrzymy (w tym przypadku byłoby to miejsce danego oka), utworzy kąt określany jako paralaksa. W przypadku planet lub bliskich gwiazd, jednym takim okiem może być miejsce obserwacji położone na jednym kontynencie, drugim zaś na innym kontynencie. Mówimy wówczas o paralaksie geocentrycznej, mierzonej z miejsc znajdujących się na powierzchni Ziemi. Natomiast w przypadku gwiazd naszymi oczami będą odpowiednio te miejsca obserwacji, gdy Ziemia znajduje się na orbicie wokół Słońca w konkretnej dacie oraz w dacie o sześć miesięcy późniejszej (Ziemia będzie wówczas dokładnie po przeciwnej stronie Słońca). Taki pomiar określamy jako paralaksę heliocentryczną, gdyż w takim przypadku rozstaw „oczu” stanowi rozmiar średnicy wokółsłonecznej orbity Ziemi. Jeśli we wskazanych datach określimy położenie interesującej nas gwiazdy i zmierzymy różnicę jej odległości od punktu odniesienia (zazwyczaj będzie to pobliska jasna gwiazda), otrzymamy wielkość kątową pozornej zmiany miejsca gwiazdy, którą nazywamy paralaksą. Znając podstawę trójkąta, czyli średnicę orbity Ziemi oraz kąt pod jakim nachylone są dwa boki tego trójkąta, wówczas łatwo wyliczymy odległość do gwiazdy, korzystając z reguł trygonometrii. Precyzja takich pomiarów jest ściśle uzależniona od jakości, czyli  rozdzielczości oprzyrządowania technicznego, którym dysponujemy oraz  ścisłej synchronizacji w czasie momentu ich dokonywania.

Dla porównania podam, iż rozdzielczość oka nieuzbrojonego osoby obdarzonej normalnym wzrokiem wynosi ok. jednej trzydziestej stopnia, czyli dwóch minut kątowych. Odpowiada to możliwości rozróżnienia i odczytania liter o wysokości 3 milimetrów z odległości pół metra. A np. planeta Wenus, która dla obserwatora z Ziemi ma największą średnicę kątową swojej tarczy (poza Słońcem i Księżycem), posiada paralaksę o wielkości około pół minuty. Oznacza to, iż bez pomocy przyrządów optycznych wszystkie obiekty na niebie, poza Słońcem i Księżycem, postrzegamy tylko jako świecące punkty różniące się jasnością obserwowaną, ale nie zdołamy dostrzec ich rozmiarów kątowych, czyli rozmiaru tarczy tych ciał niebieskich. Ale dla pomiaru paralaksy bardziej odległych gwiazd także wielkość średnicy orbity ziemskiej nie była wystarczająca.

Ponownie pomocna okazała się właściwa metoda w osiągnięciu kolejnego etapu w mierzeniu odległości do poza słonecznych światów. Nieco wcześniej wspomniałem o zjawisku Dopplera, które wskazuje na to, czy poruszający się  względem obserwatora obiekt, oddala się od niego bądź przybliża. Widmo obiektu będącego w ruchu jest przesunięte w relacji do widma – wzorca dla obiektu nieruchomego. Czyli dla ziemskich obserwatorów to Słońce byłoby obiektem pozostającym w bezruchu, zaś inne gwiazdy wykazywałyby ruch własny. Gdy porównamy widmo jakiegoś pierwiastka występującego w atmosferze gwiazdy (np. sodu), kierunek przesunięcia w widmie w stosunku do widma-wzorca (widma słonecznego, albo widma otrzymanego w ziemskim laboratorium, jako wyniku spalania np. sodu), wskazałby nam, czy interesująca nas gwiazda przybliża się czy oddala względem  obserwatora znajdującego się w pobliżu Słońca. Ponadto dałoby się  określić szybkość takiego ruchu np. w kilometrach na sekundę.

Ale w praktyce nie występuje ruch gwiazd po obserwacyjnej linii prostej, gdyż wszystkie poruszają się względem Słońca pod różnymi kątami. Z tego powodu należało znaleźć jakiś sposób pozwalający na obliczenie, ile z tego ruchu przypada na właściwy kierunek. Pomiar możliwy do przeprowadzenia mógł dotyczyć wyłącznie dwóch parametrów, tj. przesunięcia widma oraz zmiany położenia gwiazdy na niebie, która jest wielkością wyrażaną w miarach kątowych. Bez znajomości odległości do gwiazdy nie można przeliczyć jej ruchu, wyrażonego w jednostkach względnych (kątowych), na prędkość tego ruchu w km/sek. Tak więc problemem do rozstrzygnięcia  pozostawało ustalenie odległości do gwiazdy w jednostkach miar bezwzględnych. Przyjęto założenie (słuszne), że gwiazdy w gromadzie poruszają się w spójny sposób po trajektoriach do siebie równoległych albo prawie równoległych. Efekt perspektywy powoduje, że gdy gromada gwiezdna w swoim ruchu przybliża się do Słońca, to jej wielkość rośnie, a gromada jakby puchnie, bowiem trajektorie gwiazd, niczym szyny kolejowe, rozbiegają się od siebie. Gdy oddala się od Słońca, efektem obserwacyjnym jest zbieganie się poszczególnych trajektorii w jeden punkt.

Jednak w przypadku pojedynczej gwiazdy efekt ten jest znacznie trudniejszy do zmierzenia. Oznaczenie punktu (teoretycznego środka gromady), w którym trajektorie gwiazd zbiegają się, pozwalało określić, jakie jest odchylenie uśrednionej trajektorii ruchu gromady od linii obserwacyjnej. Z kolei poznanie wielkości kątowej tego odchylenia umożliwiało obliczenie, jaka część rzeczywistej prędkości gwiazd przypada na ruch poprzeczny, a jaka na ruch wzdłuż kierunku obserwacji. Natomiast sumaryczną prędkość ruchu gwiazdy poznano z przesunięcia widma. Pozostawała wówczas do rozwiązania dosyć prosta rachunkowa zależność, a mianowicie jak daleko musi znajdować się taka gromada gwiazd, aby znana już, poprzeczna składowa jej prędkości, dała w ciągu roku efekt przesunięcia o tyle a tyle sekund kątowych (lub części takiej sekundy). Zob. Appendix pkt 3.

Zasadniczy przełom w astronomii XX wieku przyniosło szersze zastosowanie techniki fotograficznej i utrwalanie obrazów z teleskopu na światłoczułej kliszy. Można było na tej podstawie dokładnie pozycjonować poszczególne obiekty, porównywać ich położenie oraz zmiany jasności w okresach czasu określonych przez badaczy. Rozwinięcie techniki długotrwałych ekspozycji (naświetleń) pozwalało również na dostrzeżenie szczegółów w inny sposób niemożliwych do zauważenia. Na początku XX wieku Harvard College Observatory (Mass., USA) miało placówką obserwacyjną w peruwiańskim mieście Arequipa (Southern Observatory). Z tego obserwatorium przywieziono do Obserwatorium w Harvardzie zdjęcia południowego nieba, którego obiekty nie są widoczne z półkuli północnej. Pośród tych zdjęć znajdowały się fotografie Obłoków Magellana (zob. Appendix pkt 4). Astronomowie byli zgodni co do tego, że te Obłoki stanowią skupiska gwiazd, ale nie było pewności co do ich położenia względem Drogi Mlecznej. Powstały różnice zdań co do tego, czy  są one częścią naszej Galaktyki, czy też stanowią względem niej odrębną morfologicznie strukturę.

Analizę zdjęć przeprowadziła kobieta-astronom Henrietta S. Leavitt, która wyodrębniła w AD 1907 ok. 2 tys. gwiazd zmiennych, znajdujących się na zdjęciach Obłoków Magellana. Po dwuletniej obróbce  danych opublikowała listę ok. 1000 gwiazd zmiennych z Małego Obłoku oraz ok. 800 gwiazd z Dużego Obłoku. Wstępnie wyniki analizy dotyczyły 16 gwiazd, dla których określiła systematyczne okresy pulsacji, po czym powiązała je z jasnością gwiazd wg zależności, iż dłuższy okres pulsacji mają gwiazdy jaśniejsze.
(Henrietta Swan Leavitt (1862 – 1921), amerykański astronom pracujący w Harvard College Observatory w zespole Edwarda Pickeringa).
W AD 1912 H. Leavitt opublikowała dane dla kolejnych 25 gwiazd z Małego Obłoku z ustaloną zależnością okres – jasność. Rodzajem gwiazd o zmiennej jasności  były cefeidy, nazwane tak od gwiazdy Delta Cephei (zob. Appendix pkt.5), dla której okres zmienności poznano już pod koniec XVIII wieku i której charakterystyka odpowiadała parametrom cech badanych gwiazd z Obłoku Magellana. Tym samym, H. Leavitt udowodniła zależność, iż cefeidy o podobnej jasności absolutnej posiadają podobny okres zmienności. I jeśli poznamy stosunek zmienności dwóch cefeid, to jednocześnie poznamy dla nich relację jasności. Czyli jeśli gdzieś na niebie odkryjemy gwiazdę typu cefeida i zmierzymy jej okres zmienności, wówczas można dokonać oceny, jaką miałaby jasność, gdyby znajdowała się pośród gwiazd Małego Obłoku Magellana.

Zależność okres – jasność mógł zostać wykorzystany do wyznaczania odległości nie tylko w ramach Drogi Mlecznej, ale ze względu na jasność cefeid, także w odniesieniu do pobliskich galaktyk, w których mogła być zmierzona taka zależność dla znajdujących się tam cefeid. Wyniki pracy H. Leavitt stanowiły podstawę do wykonania nie tyle kroku milowego, co skoku “siedmiomilowego”, jeśli chodzi o dotychczasowe możliwości metod pomiaru odległości międzygwiezdnych. W wyniku odkrycia dokonanego przez H. Leavitt, cefeidy zaczęły  pełnić rolę tzw. świec standardowych (zob. Appendix pkt 6), wykorzystywanych do kalibracji odległości dla innych typów gwiazd i obiektów kosmicznych. H. Leavitt zmarła na raka w wieku 53 lat, i nie zdążyła zostać uhonorowana nagrodą Nobla, chociaż w pełni na nią zasługiwała. Niestety, kalibracja faktycznych odległości za pomocą cefeid nie mogła być zrealizowana w czasach odkrycia dokonanego przez H. Leavitt, gdyż nie było jeszcze możliwe zmierzenie odległości do żadnej ze znanych ówcześnie cefeid (zobacz: Appendix pkt 7) i, tym samym, nie można było obliczyć wartości dla ich jasności absolutnych. Nie znano także odległości do Obłoków Magellana. Tak więc zależności dotyczące odległości cefeid od Słońca mogły być tylko względne, czyli określały ile razy dalej lub bliżej są badane gwiazdy względem siebie. Ale H. Leavitt wytyczyła szlak, którym inni doszli dalej.

Jednym z tych pionierów, którzy postawili kolejny kamień milowy był Harlow Shapley, który od AD 1914 pracował przy największych ówczesnych teleskopach zwierciadłowych na Ziemi, których lustra miały średnicę najpierw 60, a od 1917 r. już 100 cali.Tym miejscem było Mt. Wilson Observatory w pobliżu miejscowości Pasadena w Kalifornii.
(Harlow Shapley;  1885-1972; doktorat z fizyki uzyskał na Uniwersytecie w Princeton, amerykański astronom, dyrektor Harvard College Observatory w latach 1921-1952, poprzednio, w latach 1914-1921, kierownik w Mt. Wilson Observatory).

Shapley wpadł na pomysł najprostszy z możliwych. Znana była już przecież dokładna odległość przynajmniej do jednej  gwiazdy, czyli do Słońca, a tym samym również wartość jego jasności absolutnej. Postanowił porównywać jasności cefeid do jasności Słońca i powyliczać dla nich jasność absolutną. Okazało się, iż cefeidy należą do kategorii najjaśniejszych gwiazd na niebie. Mając do dyspozycji nowoczesny i duży teleskop, H. Shapley zaczął poszukania bogatych źródeł cefeid. Zaobserwował, że najwięcej tych gwiazd znajduje się w gromadach kulistych. Był zatem przekonany, że po wytypowaniu gromad, w których cefeidy będą pełniły rolę świec standardowych, stanie się możliwe wyliczenie do nich odległości. Problem okazał się znacznie bardziej skomplikowany, gdyż dobrze określone okresy jasności cefeid udało mu się zmierzyć tylko dla trzech gromad, kilka innych pomiarów przeprowadził za pomocą innych gwiazd zmiennych, świecących trochę słabiej od cefeid, czyli gwiazd typu RR Lyrae (zob. Appendix pkt 8).

Dla pozostałych wykonał szacowanie odległości na podstawie arbitralnie określonych założeń, np. że najjaśniejsze gwiazdy w takich gromadach (bez względu na typ tych gwiazd) mają zbliżoną jasność absolutną. A w stosunku do najsłabiej widocznych gromad przyjął założenie, że każda z gromad kulistych ma podobne rozmiary absolutne. Porównując wielkości kątowe takich gromad do rozmiarów kątowych gromad dla których udało mu się zmierzyć odległość, oszacował dystans dzielący je od Słońca. Łącznie na 69 gromad, co do których założył,
iż wyznaczają rozmiary Drogi Mlecznej, aż do 41 z nich oszacował odległości na podstawie proporcji dla ich rozmiarów kątowych. W AD 1918 opublikował wyniki swoich wyliczeń, z których wynikało, iż Droga Mleczna jest olbrzymią strukturą gwiezdną o średnicy ok. 330.000 lat światła, zaś odległość Słońca od jej centrum wynosi ok. 65.000 lat światła. Oznaczało to, iż wszystkie widoczne przez teleskopy obiekty powinny mieścić się w ramach tej rozległej struktury. Inaczej mówiąc, powinna ona była stanowić cały wszechświat. Wszystkie gromady gwiezdne i mgławice, wliczając w to Wielką Mgławicę w Andromedzie, byłyby wówczas jej fragmentami. (zob. Appendix pkt 9)

Shapley posiadał dowód, że jest inaczej, ale był on z rodzaju tych, co „nie mieszczą się w głowie”. Otóż w AD 1885 pojawiło się widmo w Wielkiej Mgławicy w Andromedzie, które wskazywało, że jeśliby ta mgławica nie znajdowała się w obrębie Drogi Mlecznej, wówczas obserwowane widmo musiałoby należeć do obiektu o jasności ok. miliarda Słońc, czyli świecącego tak mocno, jak cała galaktyka (mała). Morfologia i ewolucja tego rodzaju obiektów nie były wówczas rozumiane. Nie znano natury wybuchów kończących życie masywnych gwiazd, później nazwanych terminem supernowa. Shapley zdawał sobie sprawę z tego, że pomiary na granicy rozdzielczości oraz odgórnie przyjęte założenia dla oszacowania odległości, muszą być obarczone błędem. Nieznana były jednak przyczyny oraz skala błędu. Należy go usprawiedliwić, gdyż ówczesna jakość aparatury fotograficznej i używanych klisz fotograficznych, na których można było uzyskać ekspozycje widm drogą naświetlania, nie może być porównywana z późniejszymi, a zwłaszcza współczesnymi ich parametrami. Niemniej H. Shapley był pierwszym badaczem, który za pomocą poprawnej metody oszacował rozmiar Drogi Mlecznej. Gdyby znany był mu wówczas cykl ewolucyjny poszczególnych typów gwiazd, wówczas zaobserwowanie wybuchu supernowa pozwoliło by mu na przedstawienie znacznie bardziej poprawnego modelu kosmosu.

Upłynęło zaledwie kilka lat, gdy zweryfikowane zostały założenia przyjęte przez Shapley’a. Wykazano, iż jedne z nich były zbyt uproszczone a inne całkiem błędne (zwłaszcza założenie, iż mgławice kuliste mają takie same rozmiary absolutne). Uproszczenia kumulowały się drogą przenoszenie błędu systematycznego, czyli powodowały, że błąd ten powiększał swoje rozmiary w kolejnych stadiach oszacowania. W efekcie został odrzucony obraz wszechświata proponowany przez Shapley’a. Stało się to w dniu 1 stycznia AD 1925 podczas corocznego, noworocznego spotkania w Waszyngtonie członków Amerykańskiego Towarzystwa Astronomicznego, na którym odczytano referat astronoma, który wolał być drugorzędnym astronomem, niż pierwszorzędnym prawnikiem i który dla  astronomii zrezygnował z zawodu prawnika (studia prawnicze na Uniwersytecie w Oxfordzie jako stypendysta Fundacji Rhodesa oraz studia z matematyki i astronomii na uniwersytecie w Chicago).

Astronom ten nazywał się Edwin Powell Hubble (1889-1953) i uznawany jest za jednego z najwybitniejszych astronomów XX wieku. Po powrocie z I wojny światowej, gdzie wojował przez parę miesięcy w AD 1917, podjął pracę w obserwatorium na Mt.Wilson w Kalifornii. Niedawno uruchomiono tam 100-calowy teleskop zwierciadlany (a dokładniej o średnicy zwierciadła 94,5 cala). Potem pracował w obserwatorium na górze Palomar (Kalifornia), gdzie w AD 1949 uruchomiono potężny teleskop zwierciadłowy o średnicy 508 cm (zob. Appendix pkt 10). W październiku AD 1923 w obserwatorium Mt. Wilson, E. Hubble wycelował tubę  100-calowego teleskopu w spiralne ramiona Wielkiej Mgławicy w Andromedzie. Po półgodzinnym naświetlaniu, a następnie wywołaniu kliszy z obrazem fragmentu Mgławicy, ujrzał wśród mrowia rozmazanych światełek, wyraźny obraz pojedynczej gwiazdy. Była to cefeida (potem okazało się, że miała jasność 7 000 razy większą od Słońca). Wystarczyło teraz tylko zarejestrować jej okres pulsacji (zmian jasności), aby przypisać jej jasność absolutną. Znając jasność widomą można już było z różnic w jasności widomej i absolutnej łatwo wyliczyć odległość do tej cefeidy, a tym samym do Mgławicy w Andromedzie.
W ciągu następnego roku E. Hubble, wykonując fotografie poszczególnych fragmentów tej Mgławicy, odnajdywał kolejne cefeidy, aby zweryfikować poprawność dokonywanych wyliczeń na większej liczbie przypadków. Pod koniec AD 1924 był prawdopodobnie jedynym człowiekiem na Ziemi, który wiedział, że poza Drogą Mleczną istnieją inne światy oraz że mgławice spiralne to bardzo odległe galaktyki. I że tych galaktyk jest bardzo wiele. W dniu 1 stycznia AD 1925 na wspomnianym posiedzeniu ATA w Waszyngtonie E. Hubble przedstawił wyniki swoich badań.

E. Hubble (przy pomocy Miltona Humasona) oraz Vesto M. Sliphera, który pracował w Obserwatorium Lovella, uzyskali dane wskazujące, że mgławice spiralne poruszają się z bardzo znacznymi prędkościami względem linii obserwacji, na co wskazywały pomiary tych prędkości uzyskane przy pomocy efektu Dopplera (kierunek przesunięcia linii dyfrakcyjnych). V. Slipher już w AD 1914 przedstawił pierwsze wyniki takich pomiarów, ale nikt, w tym także sam Slipher, nie potrafił wówczas zinterpretować takiego efektu.
(Vesto Melvin Slipher – 1875 – 1969, astronom amerykański, pracował w Lovell Observatory. Jako pierwszy wskazał na przesunięcia linii dyfrakcyjnych w widmach mgławic spiralnych (galaktyk) wskazujące na ich znaczna prędkość radialną w kierunku od obserwatora;
Lovell Observatory
– założone w 1894 r. w miejscowości Flagstaff w Arizonie (hrabstwo Coconino) przez fundatora Percivala Lovella, multimilionera i „fanatyka” astronomii).


W AD 1929 Hubble i Humason znali przesunięcia widm dla 46 mgławic spiralnych, zaś V. Slipher dla 39, z których prawie wszystkie wskazywały, iż mgławice spiralne oddalają się od Słońca (tj. od naszej galaktyki).

Trudno było znaleźć odpowiedź na pytanie, czy prędkość oddalania się jest skorelowana z odległością. Widmo cefeid było możliwe do zarejestrowania dla najbliższych kilku galaktyk, lecz pozostałe były zbyt odlegle. Znowu pojawił się problem, podobny do tego jaki rozwiązała H. Leavitt, a mianowicie co może stanowić dla takich pomiarów właściwą „świecę standardową”,  E. Hubble przyjął (podobnie jak to uczynił Shapley w przypadku gromad kulistych), że najjaśniejsze gwiazdy (niekoniecznie cefeidy) w galaktykach mają zbliżoną wartość jasności absolutnej. Znając odległość do kilku najbliższych galaktyk, zdołał określić na podstawie różnicy jasności widm takich gwiazd, odległości dla 24 galaktyk. Wówczas wyraźna stała się korelacja odległości galaktyk z szybkością ich oddalania się (ucieczki). Wyniki tych badań E. Hubble opublikował w AD  1929 r.

Dla astrofizyków  stało się wówczas jasne, że potwierdzona obserwacyjnie ekspansja wszechświata jest naturalną konsekwencją ogólnej teorii względności sformułowanej przez A. Einsteina oraz pasuje do jednego z modeli opartych na  niej oraz efektów z nią związanych opisanych przez Wilhelma de Sittera. Koncepcje teoretyczne znalazły swoje potwierdzenie obserwacyjne.

Ale skoro wszechświat się rozszerza, to oznacza, że w przeszłości był mniejszy. Jeśli byśmy puścili taki film wstecz, to musiał zaistnieć jakiś początek, od którego zaczęła się ekspansja. W drodze powyższego wnioskowania pojawiła się koncepcja Big Bangu, czyli Wielkiego Wybuchu, czyli  aktualnego kosmologicznego Modelu Standardowego. Otrzymywane w następnych latach wyniki obserwacji i ich interpretacje uszczegółowiały i jednocześnie potwierdzały słuszność zaproponowanego modelu. Jednym z kluczowych potwierdzeń  było  wyselekcjonowanie z ogromu fal elektromagnetycznych zalewających kosmos, tzw. temperatury promieniowania tła, dokonane w połowie XX wieku przez amerykańskich radioastronomów A. Penziasa i R. Wilsona. Były to  najdawniejsze możliwe do wykrycia ślady Big Bangu. E. Hubble oszacował wiek i rozmiar wszechświata (dostępnego obserwacjom) na 10-20 miliardów lat świetlnych. Zmarł w wieku 64 lat i także nie doczekał się nagrody Nobla..

Od tego czasu coraz doskonalsze instrumenty i techniki obliczeniowe, wyniesienie w kosmos teleskopów i wyspecjalizowanych laboratoriów, stosowanie optyki adaptatywnej, zbieranie danych we wszelkich możliwych do rejestracji zakresach widm, doprowadziło do stopniowego zwiększania dokładności w mierzeniu prędkości ucieczki galaktyk, czyli rozszerzania się wszechświata, jak również wszelkich innych danych astrofizycznych. Prędkość ekspansji mierzona jest za pomocą tzw. stałej Hubble’a. Jej wielkość na dzisiaj wskazuje, iż j rozmiar Wszechświata dostępny dla naszej obserwacji wynosi 13,8 mld lat., tylko należy dodać że chodzi o lata świetlne.
Tak wynika z obecnych założeń przyjętych do konstrukcji kosmologicznego Modelu Standardowego. Natomiast pozostaje zagadką, czy w XXI wieku będziemy zmuszeni do zmiany założeń dla obecnego Standardowego Modelu w kosmologii oraz jaki będzie rozmiar Wszechświata wg ewentualnego nowego modelu?

APPENDIX

1.
„Nova”
– gwiazda okresowo zmieniająca jasność, zwiększająca ją wielokrotnie wskutek wybuchowego odstrzelenia zewnętrznych warstw atmosfery. Jest to zazwyczaj przypadek ciasnego układu składającego się z normalnej gwiazdy i białego karła (sprasowanego jądra zdegenerowanej gwiazdy), gdzie wskutek oddziaływania grawitacji białego karla następuje ciągły przepływ powierzchniowych składników atmosfery gwiazdy (akrecja) do białego karła. Układ taki nazywa many jest kataklizmicznym. Powyżej pewnej gęstości progowej następuje wybuch tych warstw i obserwujemy na niebie niewidoczną dotychczas gwiazdę, gdyż jasność jej może wówczas wzrosnąć od 100 do 1000 razy. Mechanizm ten powtarza się albo do momentu rozerwania białego karła (supernowa), albo do ustania mechanizmu akrecji powierzchniowych warstw atmosfery z normalnej gwiazdy (warstwy głębiej położone są mocniej grawitacyjnie związane z gwiazdą i punktowe oddziaływanie grawitacyjne białego karła może nie być wówczas wystarczające dla kontynuowania mechanizmu akrecji). W pierwszej połowie XIX w. mierzono paralaksy do bliskich  Słońcu gwiazd  ciągu głównego.

2.
Friedrich Wilhelm Bessel
w 1838 r. podał wielkość paralaksy dla gwiazdy 61 Cygni (czerwony karzeł odległy o11,4 lat świetlnych od Słońca i o jasności siedmiokrotnie niższej od słonecznej);
Thomas Henderson w 1839 r. podał wielkość paralaksy dla gwiazdy alfa Centauri  (żółty karzeł takiego samego typu widmowego i podobnych parametrach fizycznych jak Słońce, odległy o 4,4 roku światła);
Friedrich von Struve w 1840 r. podał wielkość paralaksy dla gwiazdy alfa Lyrae (Wega); Wega jest karłem o białym widmie , o jasności 40 -krotnie większej niż Słońce, odległy o 25 lat świetlnych (nie mylić z “białym karłem” – dogasającym jądrem umarłej gwiazdy).

3.
Przesunięcie kątowe
; aby je zarejestrować potrzebne są zazwyczaj długoletnie obserwacje, których skumulowanym efektem jest pomiar zmiany położenia obserwowanego obiektu. Pierwszą w ten sposób zmierzoną odległość miała najbliższa Słońca gromada gwiezdna, czyli Hiady w konstelacji Byka. Gromada tworzy głowę Byka w konturze tej konstelacji i jest oddalona o ok. 150 lat świetlnych od Słońca. Natomiast dokładna (średnia) odległość do Hiad (plus minus 1 rok światła) została zmierzona dopiero w końcu XX w. w na podstawie danych fotometrycznych zebranych przez satelitę HIPPARCOS.

4.
Obłoki Magellana
– Wielki (LMC) i Mały (SMC), widoczne gołym okiem galaktyki satelitarne do Drogi Mlecznej, oddalone od niej o ok. 160.000 lat światła (Wielki) oraz ok. 200.000 l.św. (Mały). Zostały tak nazwane na cześć podróżnika i odkrywcy – Ferdynanda Magellana w XVI wieku. Poprzednio Europejczycy nazywali je Obłokami Przylądka (Amerigo Vespucci).

LMC (The Large Magellanic Cloud) – galaktyka nieregularna – jasność widoma 0,9 mag.;
średnica ok. 40.000 l.św.; masa  – max. 1,0 procent masy Drogi Mlecznej, tj. 6 -10 mld mas Słońca. Szacuje się, iż zawiera ok. 30 mld gwiazd;
SMC (The Small Magellanic Cloud) – nieregularna galaktyka karłowata – jasność widoma 2,4 mag.; średnica ok. 15.000 lat światła;  masa ok. 20% masy LMC (wg szacunków zawiera ok. 3 mld gwiazd);

5.
Delta Cephei – bardzo jasny żółty nadolbrzym w konstelacji Cefeusza, odległy od Słońca o ok. 900 lat światła, o okresie pulsacji wynoszącym 5,37 dnia, zmieniający swoją objętość oraz temperaturę w zakresie 5.500 K – 6.800 K i zmieniający ok. 2,5-krotnie siłę jasności widomej (w zakresie od 3,5 do 4,5 magnitudo). Delta Cephei jest systemem trzech gwiazd, główny składnik świeci ok. 3000 razy jaśniej niż Słońce, promień ma ok. 30-40 razy większy od Słońca, zaś masę ok. 5 razy większą);

6.
Świeca standardowa – obiekt o znanej gwiazdowej jasności absolutnej i odległości, służący do obliczania odległości do innych obiektów, których znanym parametrem jest tylko jasność widoma (obserwowana).
W galaktyce Drogi Mlecznej oraz pobliskich galaktykach rolę świec standardowych pełnią gwiazdy rodzaju cefeida i RR Lyrae. Określanie odległości za pomocą RR Lyrae jest możliwe do odległości w granicach kilku milionów lat świetnych, a za pomocą cefeid nawet do 50-60 milionów l. św. Natomiast na odległościach kosmologicznych (setki milionów i miliardy lat światła) rolę świec standardowych pełnią wybuchy supernowa typu Ia, (które mają bardzo zbliżoną jasność absolutną w maksimum), jak również rolę takich świec mogą spełniać najjaśniejsze galaktyki w grupach (gromadach) galaktyk.

7.
Cefeidy są to stare gwiazdy (wiek co najmniej 10 mld lat), które w swojej ewolucji minęły już fazę ciągu głównego (okres w którym gwiazda stabilnie spala wodór) i np. stały się czerwonymi olbrzymami. Po zejściu z ciągu głównego gwiazda zaczyna się najpierw kurczyć, wówczas rośnie jej temperatura. Ciepło przepływa (konwekcja) do zewnętrznych warstw atmosfery gwiazdy, gdzie znajdują się pojedynczo zjonizowane atomy helu (atom pojedynczo zjonizowany to atom z niedoborem jednego elektronu). Wzrost temperatury, a w jej konsekwencji szybkości ruchu cząstek w atmosferze gwiazdy i ich energii powoduje, że z atomów helu wybijany jest kolejny elektron i atomy helu znajdują się w stanie podwójnej jonizacji. W takim stanie atomy helu jeszcze wydajniej absorbują ciepło do chwili, gdy zewnętrzne warstwy atmosfery gwiazdy stają się nieprzepuszczalne dla dalszej konwekcji ciepła, otulając gwiazdę, niczym kokonem. Wówczas dostarczana wciąż energia cieplna zaczyna rozpychać zewnętrzną powłokę atmosfery gwiazdy. Gwiazda puchnie, gdyż rozszerza swoje rozmiary (promień) , niekiedy nawet stokrotnie. Taki wzrost objętości gwiazdy powoduje spadek temperatury w radykalnie zwiększonej objętości jej atmosfery, gwiazda się ochładza i staje się na powrót przezroczysta dla procesów konwekcji cieplnej. Atomy helu powracają do stanu pojedynczej jonizacji i gwiazda zaczyna się ponownie kurczyć. Cykl zaczyna się od początku. Procesy puchnięcia (rozdymania) i kurczenia atmosfery gwiezdnej sa powodem zmianami jej jasności. Najbliższą cefeidą jest Gwiazda Polarna (Polaris) w konstelacji Małego Psa , biało-żółty nadolbrzym odległy ok. 440 lat świetlnych od Słońca. Obserwacje wskazują, iż pulsacje tej gwiazdy zanikają i przestanie być niebawem (jak na kosmiczne standardy) cefeidą;

8.
RR Lyrae
– gwiazda zmienna w konstelacji Lutni (Lyra), odległa od Słońca o ok. 850 lat światła, niewidoczna gołym okiem (jasność widoma waha się w granicach plus 7,06 do plus 8,12 magnitudo), o jasności absolutnej 0,34 mag., o mocy promieniowania w zakresie światła widzialnego ok. 50 razy większej od Słońca, o okresie zmienności ok. 13 godzin. Okres zmienności gwiazd typu RR Lyrae wynosi max. 1,5 dnia, a różnice jasności widomej sięgają max. ok. 1 magnitudo (mag.). Wszystkie gwiazdy typu RR Lyrae mają wartość jasności absolutnej w granicach 0,3 – 0,6 mag., podczas gdy cefeidy są znacznie jaśniejsze,
a rozpiętość wartości dla ich jasności absolutnej osiąga nawet kilka magnitudo;

9.
Wielka Mgławica
M31, olbrzymia galaktyka spiralna, znajdująca się najbliżej Drogi Mlecznej samodzielna galaktyka. Do 2009 r. uchodziła za największą i najbardziej masywną galaktykę w Lokalnej Grupie Galakty., Oszacowano jej średnicę na 50,0% większą od Drogi Mlecznej i, stosownie do tego, większą masę. Ostatnio opracowane dane uzyskane w ramach misji kosmicznych obserwatoriów (Chandra i Spitzer) wskazują, iż szacowana dotychczas szybkość rotacji naszej galaktyki (Droga Mleczna) jest o 50-60% wyższa, co oznaczało by konieczność przeszacowania jej masy o taki sam wskaźnik. Tym samym Droga Mleczna miałaby rozmiary i masę porównywalne z M 31. Wielka Mgławica w konstelacji Andromedy jest najdalej położonym obiektem we Wszechświecie (dystans ok. 2,2 miliona lat światła od centrum Drogi Mlecznej) widocznym z powierzchni Ziemi okiem nieuzbrojonym.

10.
Mt. Palomar Observatory
– położone na górze Palomar w Kalifornii, wyposażone w jeden z największych teleskopów zwierciadlanych (średnia zwierciadła 508 cm). Był to największy teleskop do czasu uruchomienie w latach 1992-1996 zespołu dwóch teleskopów Keck’a, zlokalizowanych powyżej 4.000 m npm. na szczycie wygasłego wulkanu na Hawajach (Mauna Kea), posiadających średnice luster po 10,0 m. Teleskop dla obserwatorium na górze Palomar ufundował George Ellery Hale, dlatego nazwany jest teleskopem Hale’a. Obserwatorium Mt. Palomar tworzy zespół obserwacyjny wraz z obserwatorium Mt. Wilson. Utrzymanie i korzystanie z Teleskopu Hale’a należy do konsorcjum trzech placówek naukowo-badawczych. Są nimi: Kalifornijski Instytut Technologiczny (Caltech), Uniwersytet Cornell oraz Jet Propulsion Laboratory. Teleskop Hale’a ma lustro (zwierciadło) odlane z 17 ton szkła kwarcowego (wykonane w Saint Gobain we Francji), natomiast cały teleskop waży ok. 400 ton;

CZY EWOLUCJONIZM JEST NAUKĄ. MATEMATYKA EWOLUCJI A LOGIKA EWOLUCJONISTÓW

Motto: The great majority of sequences can never have been synthesized at all, at any time .
Sir Francis Crick o “podwójnej spirali”, [19], str. 51

===========================

Rozważania sklerotycznego informatyka o ewolucji:  Nigdy nie pamiętam, czy przodek człowieka to Enter czy @. ..…

————————————-

Na studium wojskowym [65 lat temu… ] lubiłem strzelać z CKM krótkimi seriami: to po 2-3 strzały. Wtedy jest celniej, niż przy dłuuuugiej serii. Dlatego umieszczam trzeci artykuł z nauk ścisłych koło siebie. 14. VI. 2022. Mirosław Dakowski

================================

Streszczenie

Podano różne zakresy pojęcia ewolucjonizm. Zebrano dostępne obliczenia lub oceny prawdopodobieństw różnych etapów “samoorganizacji materii”, od ewolucji chemikaliów przez “dobór naturalny” dla rozmnażania bezpłciowego oraz płciowego i wreszcie powstawania nowych gatunków. Przedstawiono implikacje tych rachunków dla prawdopodobieństw powstania życia i myśli we Wszechświecie w czasie od Wielkiego Wybuchu do teraz. Wyrażono zaniepokojenie dezinformacją w szkołach na temat zbioru poglądów, często sprzecznych między sobą lub błędnych, a nazywanych “teorią“.

Wyjaśnienie. Nie jest to polemika “kreacjonisty” z “ewolucjonistami”, lecz zastosowanie ogólnie przyjętych kryteriów naukowości i argumentów matematycznych do paradygmatu Ewolucji oraz do wierzeń o podłożu ideologicznym. 

Wiek Wszechświata.

Rozumowanie musimy zacząć od Początku. W pierwszych dziesięcioleciach XX w. fizycy, astrofizycy i astronomowie odkryli miarowe rozszerzanie się Wszechświata, co doprowadziło do sformułowania pojęcia stałej Hubble’a i do jej pomiaru, a dalej do uznania fizycznej realności Wielkiego Wybuchu.

W ostatnich osiemdziesięciu latach kosmologia rozwijała się wokół zagadnień związanych z faktem, że ok. 13 miliardów (±2 mld) lat temu powstały Czas i Przestrzeń oraz Materia i Energia, czyli cały ekspandujący Wszechświat. Bada się też zagadnienia dalszej jego ewolucji. Te ramy czasowe są dla dalszych wywodów istotne: Na powstanie pierwiastków i ewolucję pierwotnych galaktyk mamy więc “tylko” pierwsze miliardy lat. Zatem wszystkie hipotezy dotyczące ewolucji biologicznej “naturalnej”, t.j. opartej jedynie o prawa świata materialnego, muszą zmieścić ten proces (powstania i rozwoju życia w Kosmosie) w (10 ± 2) miliardach lat, jeśli ich autorzy myślą o realnym, istniejącym Kosmosie. Na ewolucję chemikaliów oraz na powstanie życia na Ziemi muszą wystarczyć małe setki milionów lat, a później na rozwój życia pozostaje jedynie ostatnie około czterech miliardów lat.

Obliczenia prawdopodobieństw zdarzeń i procesów komplikacji struktur materialnych muszą więc brać pod uwagą ten “warunek brzegowy”. Zobaczymy, co na temat tych prawdopodobieństw mówi matematyka ewolucji. Wyniki tych badań i obliczeń są bowiem przemilczane w niektórych gronach ewolucjonistów przekonanych do swych milczących założeń. Ludzie ci, szczególnie popularyzatorzy, zwykle nie zdają sobie sprawy ze ścisłych ram czasowych: między początkiem Czasu a chwilą obecną.

Twierdzenia Gödla a “pewniki” naturalistów.

Przyczyn i sposobu powstania Wszechświata nie znamy. Zostało też wykazane z matematyczną dokładnością, że w sensie czysto racjonalnym nigdy ich nie poznamy. Zabraniają bowiem tego matematyczne twierdzenia Gödla opublikowane w 1930r. [1]. Można je popularnie podsumować w zdaniu: “Żaden nietrywialny zbiór twierdzeń matematycznych nie może zawierać dowodu na swą niesprzeczność“. Pierwotnie Kurt Gödel udowodnił je dla zbiorów twierdzeń arytmetycznych. Można to twierdzenie uogólnić na twierdzenia dotyczące Wszechświata, t.j. jedynego bytu obejmującego przestrzeń i czas oraz całą materię mogącą z sobą oddziaływać.

Dość liczni fizycy mający ambicje pisania o dążeniu do Ogólnej Teorii Wszystkiego, w tym genialny Stephen Hawking, w swoim czasie zapewne nie zapoznali się z pracami i osiągnięciami Gödla. Inaczej nie pisali by np. o “chęci poznania myśli Boga” (p.[2], str. 161). Po latach Hawking wycofał się z tego stanowiska [30], ale chyba dalej nie docenił czy nie zrozumiał wagi twierdzeń Gödla (p.[30], str.5).

Różne znaczenia pojęcia ewolucja

Termin “ewolucja” jest pojęciem wieloznacznym. Tej wieloznaczności nie uwzględnia się zazwyczaj w dyskusjach. Utrudnia to porozumiewanie się i racjonalną dyskusję. Dobrze więc będzie podać i sprecyzować te różne pojęcia.

  1. Ewolucja Wszechświata,
  2. ewolucja chemikaliów w kierunku trwałej komplikacji
  3. pojawianie się struktur samo-replikujących (pierwocin życia)
  4. ewolucja, komplikacja istot żywych
  5. powstawanie nowych gatunków roślin i zwierząt.
  6. Jeśli dodatkowo zakłada się przypadkowe zmiany, oraz powstawanie gatunków drogą małych zmian (obecnie mówimy – wpływ pojedynczych mutacji genów) oraz doboru naturalnego, to dopiero przy takim zawężeniu pola zainteresowań mamy ewolucjonizm darwinowski czy neo-darwinowski.

Należy wspomnieć o innym nurcie ewolucjonizmu. Wymieniam go osobno, gdyż z nauką nie ma wiele wspólnego: Gdy pewni popularyzatorzy lub propagandyści przenoszą sprymitywizowane wersje darwinizmu (jako materialnej walki o byt będącej głównym motorem rozwoju) w obszar stosunków międzyludzkich, prowadzi to do “darwinizmu społecznego”. Ta postać “ewolucjonizmu” neguje rolę etyki i moralności w społeczeństwach. Jest jego przerzutem w dziedzinę działań ludzkich. Ci działacze polityczni, którzy traktują społeczeństwa jako hordy wyimaginowanych “zwierząt darwinowskich” usiłują uzasadnić “naukowo” zbrodnie rządzących, które obecnie już są widoczne gołym okiem w wielu krajach, wielu imperiach.

Przyczynowość a celowość

Ewolucjonizm naturalistyczny, którego niewielką częścią jest neodarwinizm, zakłada, że “naukowe” jest tylko to, co “naturalne, uzyskane przy pomocy znanych praw przyrody”. Jest to paradygmat “samoorganizacji materii”, ideologia z gruntu materialistyczna. Te manowce myśli w przypadku wąsko wyspecjalizowanych fizyków i kosmologów szerzej a porywająco omawia Stanley J. Jaki w [3 i 4].

Wiele osób piszących o “ewolucjonizmie” przyjęło milczące założenie, że termin ewolucja oznacza jedynie przemiany (rozwój materii martwej czy żywej i jej komplikacje) spowodowane przez prawa Natury, przy wykluczeniu (tak z hipotetycznej rzeczywistości, jak i z dyskusji) możliwości ingerencji Boga Stwórcy. Niektórzy “naturaliści” w trudniejszych sprawach podpierają swe poglądy wymyślonymi pojęciami typu Elan vital, Wieczna Żywina, Pierwiastek (Zasada) Życia istniejący w Naturze, lub Nieznane jeszcze prawa Natury. Są to hipotezy nieweryfikowalne i nieuzasadnione, więc poza dyskusją naukową. A ich twórcy i wyznawcy chyba zaliczają się do panteistów.

Będę wyraźnie odróżniał katolickie pojęcie ewolucji (i podobne poglądy innych uczonych wierzących w Boga Stwórcę). W ewolucji tak pojętej nie wyklucza się z naukowego dyskursu rozważania celowych działań Boga.

I tylko tyle. Natomiast ateiści czy anty-teiści usiłują możliwość takich rozważań zanegować.

Od epoki Oświecenia duża część ateistycznych naukowców rozpoczęła przekonywanie innych ludzi, w szczególności uczonych, że naukowe może być jedynie podejście poszukujące przyczyn zjawisk czy oddziaływań, i to jedynie wśród praw natury. Ukoronowanie tego podejścia można znaleźć w książce “Konieczność i przypadek” J. Monoda. Odrzucają oni (często z oburzeniem) podejście teleologiczne, szukające celuprocesów. Nie chcą zauważyć, że gdy na przykład badamy ścieżkę czy drogę, to ciekawsze są pytania o to, dokąd one prowadzą, oraz kto je zaprojektował i zbudował, a nie wyłącznie pytanie o budulec, trwałość drogi czy jej promień skrętu. Tymczasem przyczynowość i celowość są to drogi poznania intelektualnego uzupełniające się, a nie wykluczające. Nie należy metod nauki dopasowywać do wyznawanej ideologii. W książce Hellera i Życińskiego [5] ciekawie omówione są dylematy Monoda (str. 113 i nast. w [5]), ale obaj znani wyznawcy i popularyzatorzy ewolucjonizmu nawet nie wspominają o porażających (dla zwolenników naturalizmu) wnioskach wynikających z obliczeń matematyki genetycznej.

Niektóre ze skomplikowanych narządów istot żyjących są zbudowane w taki sposób, że można ich powstanie i istnienie racjonalnie uzasadnić tylko przy przyjęciu celowej ich budowy. Należą do nich (spośród setek układów) np. hemoglobina, skrzydło ptaka czy oko ssaka. O rozrzutności projektanta czy bogactwie projektu świadczy np. fakt, iż znaleziono już 38 zupełnie różnych urzeczywistnionych projektów budowy oka. Niemożliwe jest stopniowe przejście od “plamki światłoczułej” do oka (jak ukazują na filmikach propagandyści), gdyż – jak ktoś słusznie zauważył – 5% konstrukcji oka to nie jest 5% normalnego widzenia, lecz zupełna ślepota.

Michael Behe [28] układy takie nazwał “złożoności nieredukowalne”. Ich najprostszym przykładem jest pułapka na myszy. Składa się jedynie z siedmiu elementów, jest łatwo wytłumaczalna przy przyjęciu istnienia jej projektu, a prawdopodobieństwa jej powstania drogą kolejnych zmian przypadkowych (mutacji) jest niewyobrażalnie małe. To prawdopodobieństwo musi być wyliczone przez mnożenie prawdopodobieństw niezależnych na poszczególnych etapach konstrukcji. Sławne porównanie Hoyle’a (zniecierpliwionego trudnościami znalezienia płaszczyzny porozumienia matematyka z neo-darwinistami) głosi, że budowa komórki jest nieporównanie bardziej skomplikowana, niż budowa Boeinga 707. A jaka jest szansa powstania Boeinga poprzez działanie wichru na złomowisku? Jest tu implicite zawarte wskazanie, że również budowa komórki przedstawia złożoność nieredukowalną.

Wielki matematyk XX wieku Stanisław Ulam obliczył kiedyś górne granice prawdopodobieństwa samo-konstrukcji oka ssaka (p. Tablica ). Przy bardziej realistycznych założeniach możnaby to prawdopodobieństwo obniżyć jeszcze o wiele rzędów wielkości. Żadnego podważenia założeń Ulama i/lub metod rachunku ze strony neo-darwinistów nie było. Czy można rezultaty obliczeń kwitować jedynie milczeniem, jeśli są sprzeczne z dogmatami?

Prawdopodobieństwa

W Tabeli zebrano niektóre wyniki obliczeń prawdopodobieństw różnych stadiów “samoorganizacji materii”.

Uwaga wstępna: Przy badaniu procesów uwzględnionych w Tabeli natykamy się na trzy fenomeny nie poddające się żadnej analizie matematycznej ani nawet analizie w kategoriach filozofii Natury.

Są to:

  1. powstanie Przestrzeni/Materii z Niczego,
  2. powstanie życia,
  3. powstanie duszy czy jaźni człowieczej.

Dla uczonego są to Tajemnice. Możliwości liczenia prawdopodobieństw dotyczą tylko faktów bardziej szczegółowych.

Część pierwsza Tabeli dotyczy powstania materii i czasu. Dalej zebrano oceny prawdopodobieństw ewolucji pierwiastków, powstania złożonych związków chemicznych i ewolucji pre-biologicznej (“ewolucja chemikaliów”). Od strony faktów doświadczalnych źródłowo i jasno opisuje to P. Johnson w [6] w rozdziale 8. Próbą obliczenia “złożoności nieredukowalnej”, jaką jest powstanie życia, przy założeniach przyczynowych, jest rachunek J. Ninio [9] i dlatego otrzymujemy liczby tak niewyobrażalnie małe.

Część następna dotyczy wyników obliczeń szansy zmian przypadkowych w kierunku komplikowania struktur żywych oddzielnie dla planów budowy i rozmnażania bezpłciowych, a dalej – dla rozmnażania płciowego.

Ostatnio D. Berlinski w najpoważniejszym piśmie neo-konserwatystów w USA Commentary [26] przedyskutował niemożność wyjaśnienia w kategoriach psychologii ewolucyjnej tak struktury mózgu ludzkiego jak i umysłu (a dalej – jaźni). Klarownie też rozróżnia między mózgiem, umysłem a duszą. W tej dziedzinie obliczenia probabilistyczne wydają się niemożliwe; trzecia Tajemnica.

Wszelkie “etapy pośrednie” między wyżej wymienionymi Tajemnicami poddają się próbom ocen czy obliczeń prawdopodobieństw. Cechą charakterystyczną, wspólną tych obliczeń jest, że:

  1. Zostało wykazane, że gdy dotyczą kolejnych etapów czy progów ewolucji, są prawdopodobieństwami niezależnymi. Dla oceny całkowitego prawdopodobieństwa wyniki obliczeń w etapach muszą być więc mnożone : pcałk. = p1*p2*…*pn
  2. Obliczenia dla konkretnego procesu, lecz wykonane przez różnych autorów i przy różnych (rozsądnych) założeniach dają zawsze wyniki wskazujące na zupełne nieprawdopodobieństwo danego procesu. Nie znalazłem w literaturze przedmiotu wyników obliczeń dających n.p. tak wielkie liczby, jak: 1>pi >0.01 (czyli między pewnością a 1% szans).

Oceny minimalnej wielkości ujemnego wykładnika n w wyrażeniu pcałkminim=10-n , prowadzą do wartości 700<n<5000, a dla niektórych autorów osiągają wielkość n=1011 (!) , zob. poniżej [9].

Ostatnio na temat “samoorganizacji chaosu” i powstania życia opublikował swe oceny czy rezultaty rachunków A.P. Widmaczenko [7]. Podaje on dla granic “samoorganizacji chaosu” na Ziemi prawdopodobieństwo 10-255 < p < 10-800 (p. Tabela). Pytanie postawione przez autora [7] brzmi jedynie: na Ziemi czy w Kosmosie? Dyskusję tego problemu przeprowadzę w końcowej części artykułu.

W bardzo ciekawej książce biochemika i biofizyka Marka Głogoczowskiego “Atrapy oraz paradoksy nowoczesnej biologii” [8] autor cytuje (w Aneksie) oceny samorodnego powstania życia podane przez J. Ninio [9]: Wykazują one, że p < (10)-1011. Jest to liczba niepojęcie mała, nawet dla matematyka. Potwierdza więc absolutną niemożność samorództwa życia przy przyjętych założeniach.

Tabela

Czas, prawdopodobieństwa a ewolucjonizm.

Proces lub zdarzeniep lub todnośnik
   
Powstanie przestrzeni i materii / energii (Wielki Wybuch)?Astrofizyka i filozofia
Czas istnienia materii13*109 lat
Ewolucja chemikaliów (pre-biologiczna):  
powstanie jednego enzymup < 10-20Fred Hoyle [27]
powstanie minimalnego budulca dla komórki (2000 enzymów dla budowy DNA)< (10-20)2000 =10-40 000” “
Prawdopodobieństwa powstania komórki (jeszcze martwej) z kompletu białek10-120 000Ch. Gyul [23] J.W. Johnson
Powstanie życia z istniejącego budulca? 
Prawdopodobieństwo “samoorganizacji chaosu”10-255 – 10-800A. Widmaczenko [7]
“Spontaniczna kreacja życia”(10)-1011A. Ninio [9]
Lewoskrętność aminokwasów (tylko u istot żywych)? p<<< 1, p ~= 0biochemia
Prawdopod. wytworzenia jednej molekuly białka (z nieskończ. magazynu)p < 10-320Ch. Gyul, J.W. Johnson
Prawdopod. utworzenia jednej molekuly białkap < 10-260F. Crick [19]
Czas potrzebny na wytworzenia jednej molekuly białka>10143 latJ.W. Johnson
Przysłanie życia z Kosmosu (kierowana panspermia)p<<<10-40 000 (wobec tWsz.=13*109y)astrofizyka
Przejście od rozmnaż. bezpłciowego do płciowegop~= 0F. Hoyle [10]
Korzystne zmiany przez dobór natur. przy rozmnażaniu bezpłciowym (bakterie, drożdże)Nie maFred Hoyle rozdz. 1
Korzystne zmiany przy cross-over (rozmnażanie płciowe)???, brak przy wielu równocz. mutacjachFred Hoyle, r.6
Powstanie nowych gatunków przez dobór płciowy0 gatunków zwierząt, p<<<<1Biologia, Fred Hoyle
Złożoności nieredukowalne (przykłady) Pułapka na myszy Histon-4 (białko w DNA), łańcuch 102 aminokwasów , 200 par zasad) Skrzydło ptaka oko głowonoga, oko ssaka *)? 4-200, t.j. ok. 10-120 ?, p niezwykle małe ? p<10-40Michael Behe [28] Fred Hoyle, s.131 Stanisław Ulam
Powstanie duszy ( świadomości, jaźni, myśli)? 

p – prawdopodobieństwo powstania przypadkowego, t – potrzebny czas w latach

*) znaleziono >38 niezależnych planów budowy oka u zwierząt

Pamiętamy, iż w nauce samorództwo tak wysoko zorganizowanych zwierząt, jak ropuchy czy węgorze, jeszcze w połowie XIX w. przyjmowano za fakt potwierdzony “świadectwami”. Dopiero Ludwik Pasteur wykazał doświadczalnie nie – zachodzenie samorództwa nawet dla bakterii. W języku matematyki te wyniki doświadczalne dają “tylko” ok. pbact. < ~10-5. Argumenty matematyczne obniżają tę liczbę o ogromną ilość rzędów wielkości.

Książka Głogoczowskiego znajduje się w nurcie silnego wśród biologów na Zachodzie lamarck’izmu. Postulowane przez lamarck’istów dziedziczenie cech nabytych przez złożone istoty żywe nie ma prostych, sprecyzowanych założeń matematycznych, niestety nie poddaje się więc ocenom probabilistycznym, odpowiednie prawdopodobieństwa nie są więc reprezentowane w Tabeli.

Zobaczmy, jakie są argumenty osób wierzących w spontaniczne powstanie życia. Ian Musgrove [32] podważa rachunki probabilistyczne dotyczące “ewolucji chemikaliów” m.inn. tym, że “wykonalność życia” (life feasibility) zależy od praw chemii i biochemii, które jeszcze są badane. Lepiej to brzmi w oryginale: “that we are still studying“. A prawdopodobieństwo powstania życia “is dependent on theoretical concepts still being developed, not coin flipping”. Muszę skomentować, że znane prawa chemii, sprawdzone i oparte o mechanikę kwantową, stosują teorię prawdopodobieństwa. Na odkrycie nowych praw można ew. mieć nadzieję, należy w tym kierunku pracować, ale nie można na tej podstawie podważać obliczeń opartych o znane i jasno sformułowane założenia i prawa świata materialnego. Dla przykładu: jakie “prawa chemii” mogłyby radykalnie zwiększyć prawdopodobieństwo syntezy histonu-4 ? Również argument, iż obecnie organizmy żywe są bardzo skomplikowane, ale pierwotne istoty “mogły być pojedynczą, samo-powielającą się molekułą” nie brzmi przekonywająco.

Matematyka Ewolucji

Najprecyzyjniejsze i jasno opisane obliczenia prawdopodobieństw utrwalenia się zmian przypadkowych a pozytywnych u istot żywych (przy przyjęciu założeń neo-darwinizmu, które na szczęście poddają się analizie ilościowej) opublikował Fred Hoyle [10]. Zastosowane przezeń narzędzia matematyczne znane są i wypróbowane w fizyce teoretycznej [11 i 12], a także stosowane przez innych badaczy w genetyce i badaniu rozwoju struktur żywych [13-16].

Książka Freda Hoyle [10] jest o tyle przydatna do racjonalnej debaty, iż autor podaje wszystkie swoje założenia, używa wypróbowanych metod matematycznych oraz ściśle uzasadnia stosowane przybliżenia. Nikt ich, jak dotąd, nie zakwestionował. Hoyle przyjmuje do obliczeń założenia neo-darwinizmu postulujące, że zmianami budowy istot żywych kierują przypadkowe mikro-mutacje. Cecha szczególna (A) charakteryzuje się odstępstwem od średniej, czyli typowej cechy (a) różną płodnością s ( s – od survival of the fittest..) , jak (1+s):1, gdzie s wynosi ok. 0.01 (tę ważną wielkość można oczywiście w obliczeniach zmieniać). Przyjmuje się, że tempo mutacji (czyli zmian przypadkowych) lambda (λ) wynosi ok. 0.3 na pokolenie. Autor przelicza, jaką szansę mają mutacje “korzystne” w “lawinie” (jak pisze) mutacji szkodliwych. Obliczenia prowadzono przy jednej lub kilku mutacjach na gen. Czytelników chcących poznać czy sprawdzić formalizm matematyczny odsyłam do rozdz. 1 w [10]. Rozwiązanie prostych (dla jednego rodzica, czyli przy rozmnażaniu bezpłciowym) równań różniczkowych daje zaskakujący rezultat: Przy rozmnażaniu bezpłciowym możliwe jest jedynie zachowanie dotychczasowego bogactwa genów, niemożliwe jest zaś powstanie nowych bardziej złożonych planów budowy. Natomiast skąd się to bogactwo wzięło – znane modele matematyczne (nie tylko Hoyle’a) nie potrafią odpowiedzieć.

Dla rozmnażania płciowego, z powodu włączenia procesu łączenia i częściowej eliminacji genów ojca i matki (cross over), tak model, jak i niezbędny aparat matematyczny znacznie się komplikuje. Wylicza się prawdopodobieństwa wystąpienia częstości genu A po wielu pokoleniach. Hoyle stosuje znane np. z [12] metody całkowania po trajektoriach. W porównaniu z rachunkami z mechaniki kwantowej obliczenia rozkładu genów w poddanej mutacjom populacji są bardziej skomplikowane, gdyż należy uwzględnić nie tylko czynniki liniowe w s (współczynnik płodności), lecz także kwadratowe (s2). Są też inne utrudnienia (p. str. 88-89 w [10]).

Po analizie okazuje się, że mutacje pozytywne mogą “wypłynąć” ponad duszące je mutacje zwykłe, czyli negatywne, jedynie, gdy niedaleko odbiegają od planu podstawowego istoty żywej (wiele małych kroków). Większe zmiany, t.j. dwie, trzy mutacje pozytywne, giną zupełnie po paru pokoleniach. Pozatem, gdyby nawet takie większe zmiany “przebiły się” przez właściwe dla nich nieprawdopodobieństwa, to zginą, ponieważ zmutowane osobniki są bezpłodne: nie mogą się rozmnażać z niezmutowanymi, a szansa znalezienia tak samo zmutowanego partnera jest policzalna, ale niezwykle mała (iloczyn paru bardzo małych a niezależnych prawdopodobieństw). Rachunki potwierdzają więc zdrowo-rozsądkowe obserwacje o niemożności rozwoju gatunków metodą “obiecujących potworów”, zaproponowaną np. w hipotezie R. Goldschmidta. Odpowiednie dane doświadczalne przedyskutowane są u Phillipa Johnsona [6] w rozdziale 3:  “Mutacje wielkie i małe”.

Z obliczeń Hoyle’a wynika jeszcze jeden, zaskakujący wniosek: Jakieś, niewielkie szanse na utrwalenie zmian pozytywnych dla organizmu istnieją jedynie przy procesie cross-over genów, możliwym jedynie przy rozmnażaniu płciowym. Hipoteza “ewolucji naturalistycznej” prowadzi więc do wniosku, że życie musiało od razu, od początku powstać w postaci “samczyka i samiczki”, a nie z mitycznego “pierwotnego bulionu”. Jest to zabawny paradoks paradygmatu naturalistycznego. Model implikuje ten rezultat dla całego hipotetycznego życia, w całym Wszechświecie.

Fred Hoyle był matematykiem, fizykiem i astronomem, znał też dobrze biologię. Miał ogromne osiągnięcia w dziedzinie poznania budowy gwiazd i nukleosyntezy w galaktykach i gwiazdach. Dotyczy to szczególnie syntezy pierwiastków ciężkich, niezbędnych jako budulec do powstania życia a powstających we wnętrzach gwiazd olbrzymów. Ciągle aktualna jest teoria nukleosyntezy, powstała przed pół wiekiem, w której autorzy Burbidge, Burbidge, Fowler i Hoyle (teoria znana wśród fizyków jako B2FH) na podstawie znanych już wtedy danych o przekrojach czynnych i rodzajach oddziaływania obliczają względne prawdopodobieństwa powstawania różnych pierwiastków we Wszechświecie. William Fowler za tę (głównie) i parę innych prac otrzymał nagrodę Nobla z fizyki. Hoyle był bardzo dobrym matematykiem wśród takich specjalistów genetyki matematycznej, jak J. Haldane, R.A. Fisher, Sewell Wright, i M.Kimura. Jednak, mimo ugruntowanej pozycji naukowej, rezultaty swych obliczeń p.t. “Matematyka Ewolucji” [10] (szlifowane w czasie wieloletnich wykładów dla studentów oraz biologów) ośmielił się wydać w formie książki dopiero parę lat przed śmiercią. Na tyle mocny był – przewidywany i rzeczywisty – wstrząs w środowiskach naukowych i popularyzatorskich traktujących ewolucjonizm darwinowski jako swoistą ideologię (lub quasi-religię). A reszcie narzucano pogląd, że jest to udowodniona teoria naukowa.

Fred Hoyle był zdeklarowanym ateistą. Był zarazem uczciwym i odważnym uczonym. Gdy więc wyliczył, że ewolucja naturalistyczna nie mogła, bo nie zdążyłaby, zajść na Ziemi, przyjął jako hipotezę roboczą, że zestawy genowe były okresowo przysyłane na Ziemię przez jakąś Inteligencję Kosmiczną. Postulował, wraz ze współpracownikami, szczególnie M.C. Wickramasinghe (np. w [17 i 18]), że te interwencje istot rozumnych z Kosmosu stały za zadziwiającymi “wybuchami” nowych planów życia i nowych gatunków, np. na przełomie proterozoiku i kambru (600-585 mln lat temu), czy permu i triasu (~280 mln), a może też ~65 mln lat temu (wymieranie gadów a nagłe różnicowanie się ptaków i ssaków)

Ściślej – argumentowali oni, że jedynie takie interwencje mogłyby uratować sensowność samorództwa jako hipotezy roboczej. Wielu sławnych uczonych, ale materialistów (np. F. Crick [19], por. Tabela) również czuło się zmuszonych do “wy-ekstrapolowania” założenia o samorództwie w hipotetyczny Inteligentny Kosmos. Jak jednak to zrobić, by nie narazić się na śmieszność?

Hipoteza Wielkich Powrotów a ewolucjonizm

Ze względu na ograniczenia spowodowane znaną datą Big Bang’u czas dostępny na “samoorganizację chaosu” (materii) jest jedynie trzykrotnie większy dla Wszechświata, niż dla Ziemi. W związku z tym naukowcy produkujący różne hipotezy o panspermii, a w szczególności o Inteligencji planowo przesyłającej na Ziemię gotowe zestawy genowe [17, 18, 19], które miałyby wyjaśnić kilkakrotne w historii Ziemi wybuchy nowych planów życia, są zmuszeni do zanegowania faktu Wielkiego Wybuchu. Muszą zakładać nieskończoność Wszechświata w czasie, czyli jego wieczność, przynajmniej w przeszłości. Próbowano więc “ratować” wieczność materii przez hipotezę kolejnych Wszechświatów rozpoczynających się Wielkim Wybuchem, a kończących Wielką Dziurą. Taki pomysł nie jest sprzeczny z ogólną teorią względności, choć stan przejścia do nowego Wybuchu nie poddaje się analizie matematycznej. Hipoteza jest jednak sprzeczna z II zasadą termodynamiki. Przy jej lansowaniu unikano więc wspominania o paru przeszkodach:

  1. Takie Kosmiczne Jo-jo nie mogłoby przekazać żadnej informacji (w tym o planach Życia z poprzedniego cyklu) przez punkt osobliwy, którego konsekwencje zwiemy Wielkim Wybuchem.
  2. Zapominano, że już w 1934 r. Tolman [20] wykazał, że takie hipotetyczne kolejne Wszechświaty miałyby swe maksymalne promienie szybko malejące, co jest sprzeczne z hipotezą wieczności.

Wymyślono więc inny model:

By ratować tak potrzebną dla paradygmatu materialistyczno-naturalistycznego hipotezę wieczności materii H. Bondi, T. Gold i F. Hoyle [21] zaproponowali Wszechświat “stwarzający się” ciągle: w ekspandującej czaso-przestrzeni pojawiają się “znikąd” nowe cząstki, które mają zapewnić stałą gęstość ciągle rozszerzającego się Wszechświata. Hipoteza ta łamie zasadę zachowania masy i energii, co dla autorów jakoś nie było przeszkodą. Jednak hipotezę tę obaliło co innego: Doświadczenie potwierdza z dużą dokładnością istnienie promieniowania reliktowego po Wielkim Wybuchu, a nie znaleziono promieniowania charakteryzującego “stwarzanie ciągłe”. Wielki Wybuch jako początek Czasu i Materii jest więc obecnie w środowiskach astrofizyków uznany za ugruntowany doświadczalnie fakt.

Szeroko o implikacjach (logicznych i filozoficznych) pomysłów istnienia wszechświatów oscylujących lub “stwarzających się ” pisze fizyk, filozof i teolog Stanley Jaki [3 i 4].

Nieoczekiwane wnioski dla Kosmosu.

Niezwykle małe wartości na prawdopodobieństwa różnych procesów na Ziemi, np. powstania życia (p. Tabela) można, jedynie po pomnożeniu przez trzy (!!) ekstrapolować na cały czas istnienia hipotetycznych planet przy najstarszych gwiazdach I pokolenia. Sumaryczny (ujemny) wykładnik potęgi przy prawdopodobieństwach powstania życia na Ziemi (p. wyżej), wynosi co najmniej n min > 700 do 5000 lub więcej. Policzmy: Maksymalną ilość gwiazd w naszej Galaktyce mogących posiadać jakiekolwiek planety ocenia się na ok. 100 mln. (~108), a ilość galaktyk w obserwowalnym Wszechświecie na ok. 100 mld (1011). Liczba nWsz=n-8-11=n-19 jest na tyle bliska liczbie n (np. 5000-19 = 4981), że możemy uznać, iż prawdopodobieństwo “samoorganizacji chaosu” (czy materii) pozostaje dla Wszechświata równie niewyobrażalnie małe, jak dlas Ziemi. Porównajmy ten szacunek z ocenami Carla Sagana [29], który był fanem Inteligencji Kosmicznych. Ocenił on, iż z ok. 1022 gwiazd we Wszechświecie ok. 104 może mieć planety podobne do Ziemi. Różnica między nami polega na tym, że on na podstawie “faktu” życia na Ziemi uznał, że z faktu, iż na Ziemi zycie istnieje, wynika, że musiało ono u nas przypadkowo powstać (pZiemi=1). Tymczasem przytoczona przeze mnie matematyka temu zaprzecza. Ale liczba nWszwynikająca z tak różnych ocen ilości planet nadających się dozamieszkania jest praktycznie taka sama.

Wynikają z tego następujące ciekawe konsekwencje:

  1. Wszelkie miliardy dolarów zdobyte na Projekty Poszukiwania Inteligencji Pozaziemskich (SETI, n.p. kiedyś bardzo lansowany projekt Carla Sagana [29], plakietki z rysunkami ludzików na sondach kosmicznych NASA Pioneer 10 i 11, czy Project Phoenix, Mountain View itp.) były i są wydawane nieracjonalnie. Dotyczy to też obecnych wypraw na Marsa, jeśli wśród uzasadnień znajduje się “poszukiwanie wody, w celu dowodzenia powstania życia” w sensie samorództwa.
  2. Wszelkie relacje, nawet te “najpoważniejsze”, o wizytach UFO i zielonych (zwykle) ludzikach z Plejad itp. nie mogą odnosić się do bytów realnych, fizycznych i statków materialnych. Ledwo wspomnę tu wewnętrzne wzajemne sprzeczności logiczne między tymi relacjami.

Tylko we Wszechświecie trwającym od Minus Nieskończoności w czasie możliwe byłoby powstanie “Starożytnych Cywilizacyj Kosmicznych”, “Galaktycznej Inżynierii Genetycznej “i “Panspermii Kierowanej” (por. [17-19] i pomysły wielu innych autorów-naukowców) metodą naturalistyczną. Tylko wieczność Wszechświata może zapewnić ramy czasowe umożliwiające wyewoluowanie Inteligencji Galaktycznej lub Wielkiego Budownika czy podobnych panteistycznych wierzeń. Przy znanym uporze osób “wierzących w jedyność (czy mądrość) materii” można teraz oczekiwać modeli postulujących przenoszenie Myśli czy Planów przez osobliwość Wielkiego Wybuchu. Na razie możemy podziwiać ten kierunek w science fiction, np. S. Lema “Głos Pana” [22], ale zapewne takie hipotezy pojawią się i w czasopismach naukawych. O paradoksach wynikających z rozumowań osób wierzących w “wieczne powroty” pisze pięknie Stanley Jaki w [3 i 4].

Konkluzje

Diagnoza

Metoda naukowa charakteryzuje się paroma istotnymi cechami:

  1. naukowa teoria powinna poddawać się falsyfikacji, czyli możliwe powinno być wskazywanie, jakie doświadczenia lub fakty mogłyby ją obalić.
  2. Doświadczenie służy też do uściślenia, lub poprawy teorii, czy nawet powstania nowej teorii
  3. Zwykle działa zasada korespondencji, t.j. nowa teoria nie jest przekreśleniem poprzedniej, lecz jej uogólnieniem lub przeniesieniem w nowe, rozszerzone warunki doświadczalne.

Natomiast dla różnych zakresów “ewolucji naturalistycznej” sytuacja jest odmienna:

  1. Irving Kristol, a niezależnie Stephen J. Gould w zasadzie zgadzali się, że ewolucjonizm od strony doświadczalnej (jako naturalistyczne wyjaśnienie bogactwa form i rozwoju istot żywych) można uznać za ideę będącą zlepkiem sprzecznych przypuszczeń, hipotez i wyjaśnień. Szerzej o tym u P. Johnsona [6], str. 24 i nast.
  2. Matematyka wykazuje, że różne hipotezy ewolucjonistyczne nie mają podstaw probabilistycznych.
  3. Pojęcie “ewolucji traktowanej jako fakt” ma silne podłoże ideologiczne, a żadnego naukowego. Ewolucjonizmy nie poddają się falsyfikacji. Chyba jedyne argumenty, z którymi zetknęliśmy się ze strony naukowców “wierzących” w ewolucję naturalistyczną, wobec argumentów uczonych posługujących się matematyką, to: “stan aktualny (np. przy pytaniu o powstanie oka ssaka – implicite drogą ewolucji naturalnej) wskazuje, że oko istnieje, więc musieliście przyjąć jakieś (??) błędne założenia. Poprawcie założenia”. Jest to rozczulająca bezradność intelektualna.

Te trzy powody łącznie wskazują, że próba intronizacji “ewolucjonizmu” jako teorii naukowej nie powiodła się. Czas wstydliwego przemilczania tej sprawy już upłynął. Na pytanie postawione w nad-tytule artykułu wypada odpowiedzieć negatywnie. Na spełniającą kryteria naukowości spójną teorię rozwoju (głównie życia) należy poczekać.

Apel.

Zadziwiające jest, i przyczyn tego stanu rzeczy należy szukać daleko poza nauką, w jaki sposób biolodzy, uczeni, mogą dopuścić, by poglądy tak sprzeczne z matematyką, tak sprzeczne z logiką, i – co śmieszniejsze – tak sprzeczne wewnętrznie, między sobą (chodzi o neo-darwinizm oraz o syntetyczną teorię ewolucji) – mogły być wykładane na wyższych uczelniach i co gorsze – uczone w szkołach jako teorie naukowe ?! Przykładem może służyć podręcznik Jerzmanowskiego i inn. [24]. Np. podaje się tam jako prawdy naukowe, udowodnione i nie budzące wątpliwości, różne “drzewa genealogiczne” istot żywych. A tymczasem tak paleontologia ( p. np. książkę Phillipa Johnsona [6], rozdziały 4 do 6, czy artykuł D. Berlinski’ego z Commentary [25]), jak i genetyka matematyczna potwierdzają jedynie istnienie fazy stazy, t.j. niezmiennego trwania gatunków (często przez dziesiątki czy setki milionów lat, np. różne rekiny) lub najwyżej ich mikro-zmian w wąskich granicach zmienności. Staza poprzedzona jest stadium nagłego pojawienia się różnych planów i form życia.

Intelektualny zmierzch neo-darwinizmu nastąpił pod koniec XX wieku. Mimo przeszło stuletniej indoktrynacji jej wyniki okazują się mierne: Np. Autor w National Geographic [31] str.6, z żalem stwierdza, że obecnie “zaledwie 12% Amerykanów uważa, że ludzie rozwinęli się z innych form życia bez boskiej ingerencji”.

A propaganda trwa: Podaje się młodzieży do wierzenia jako “teorie przypadkowego powstania życia” dziennikarskie opisy “bulionu pierwotnego” czy “pierwotnej pizzy“, lub bezpłodne w dłuższym horyzoncie czasowym dywagacje sprzed 80-ciu lat o “koacerwatach”. Opisuje się zupełnie nieudane, bo nic nie udowadniające doświadczenia Millera – Urey’a sprzed lat 50-ciu. Nie pociągnęły one za sobą (jak to bywa przy owocnych odkryciach) serii następnych odkryć, nie doprowadziły do przełomu w poznaniu mechanizmów (i praw) komplikacji i replikacji chemikaliów. Omija się konieczny, szczególnie dla uczniów, komentarz, że był to ślepy zaułek prób stworzenia złożonych związków organicznych mających prowadzić do powstania zalążków życia. Takie deformacje prawdy przez popularyzatorów biologii teoretycznej i doświadczalnej są zdecydowanie szkodliwe dla kształtowania u młodzieży racjonalnych metod poznawania rzeczywistości.

Jaki będzie los Nauki?

Jest niewyobrażalne, by społeczność uczonych matematyków, fizyków czy chemików tolerowała w swej dziedzinie podobne skrzywienia w nauczaniu, spowodowane przestarzałym, uwiędłym paradygmatem. Czas więc chyba, by podjęto stanowcze procesy oczyszczenia nauki od dominacji ideologii (szczególnie w przekazywaniu młodzieży fałszywych wyników i metod nauki) również w ważnym dziale biologii – nauce o przemianach i rozwoju istot żywych.

W ostatnich dziesięcioleciach, a szczególnie ostatnich latach zauważalne jest i coraz częstsze przyspieszone odchodzenie od wypracowanej już w średniowieczu przez scholastyków metody, dzieki której w Europie stworzono nauki ścisłe: Ciągłe, ilościowe porównywanie modelu i doświadczenia; ich ulepszanie; nieuznawanie hipotez niesprawdzalnych; otwarta dyskusja założeń i wyników.

Obecnie upowszechnia się ignorowanie dowodów niewygodnych dla osób lub nurtów, które zdobyły “panowanie” w mediach. Osobiście, poza opisanym powyżej, natknąłem się na parę takich fenomenów: Przykładem mogą służyć “podstawy teoretyczne” leków homeopatycznych, jak też lansowanie “dobrotliwego” działania małych dawek promieniowań, jako “uzasadnienie” np. “braku ofiar po Czarnobylu”. Ci propagandyści celowo popełniają błąd logiczny: z “braku dowodów wpływu” wnioskują o “dowodzie braku wpływu”.

Narasta niepokojące zjawisko: W Polsce i na świecie powstały i istnieją “obozy” ekspertów. Powodują to jednak “lobbyści” i politycy z jasnej przyczyny: ogromne zyski grup finansowych. Ignoruje się wyniki pomiarów, dowody i argumenty “drugiej strony”. Jakby prawda miała strony… A w dyskusjach zwanych naukowymi zdarza się staranne ukrywanie założeń. Dlaczego w tych festiwalach propagandy biorą udział “uczeni”? Jak im nie wstyd? Szarlataneria nie budzi już powszechnej grozy, ani nie ośmiesza. Za czasów Hitlera to się już w Niemczech zdarzyło: promowano eugenikę (a skutek – naukowe zabijanie ludzi oraz hodowanie innych), obowiązująca się stawała “teoria” o wszechświecie z lodu. Zdarzyło się to też za Stalina w bolszewickiej Rosji: były próby krzyżowania małp bonobo z człowiekiem radzieckim, było “uczenie” pszenicy, by dawała plony na dalekiej północy itp. Teraz, pod uderzeniami mediów, znów wróciła fala bezkrytycyzmu. Zwie się to post-modernizmem. Czy nauka padnie pod naciskiem Interesu lub Ideologii? Przykład szerzej omówiony w tym artykule jest alarmujący. Czy długo będziemy tolerować zbiór sprzecznych hipotez jako zaakceptowaną przez “społeczność naukową” teorię naukową?

Takiego zjawiska w działach nauki, które zdobyły szacunek, w ostatnich stuleciach nie było. A w mniej szacownych – nie było to powszechne. W normalnie funkcjonującą naukę wbudowane są sposoby naturalnie i mało boleśnie eliminujące szarlatanów i kłamstwa.

Jak zmienić sygnalizowany proces? Tak traktowaną naukę może przecież czekać kolaps. To poważnie niebezpieczeństwo. Szkoda byłoby naszej cywilizacji.

Literatura

  1. Kurt Gödel, Monatshefte für Mathematik und Physik, 37, str. 349, 1930, oraz 38, 173 1931, oraz ang. Hao Wang, Reflections on Kurt Gödel, Cambridge Univ. Press, 1988
  2. S. W. Hawking, Krótka historia Czasu, str. 161, Alfa, Warszawa, 1990
  3. Stanley Jaki, Bóg i kosmologowie, RAF i Scriba TWE, Wrocław, 1995
  4. Stanley Jaki, Science and Creation, Scottish Academic Press, Edinburgh, 1986
  5. M. Heller, J. Życiński, Dylematy Ewolucji, Biblos, Tarnów, 1996
  6. Phillip E. Johnson, Sąd nad Darwinem, Vocatio, Warszawa, 1997
  7. A. P. Widmaczenko, Astronomiczne aspekty pochodzenia życia, (ros.) w : Kiniematika i Fizika Niebiesnych Tieł, Nr.4, str. 284, Kijev 2003
  8. Marek Głogoczowski, Atrapy oraz paradoksy nowoczesnej biologii, Wyd. “MG”, Kraków, 1993
  9. J. Ninio, Les approches moléculaires d’évolution, Paris, 1978, cytow. w [8]
  10. Fred Hoyle, Matematyka Ewolucji, Megas, 2003
  11. R. Courant and D.Hilbert, Methods of Mathematical Physics, NY, Interscience, 1953
  12. R.P. Feynman and A.R.Hibbs, Quantum Mechanics and Path Integrals, McGraw-Hill, 1965
  13. W. Fisher, Genetical Theory of Natural Selection, London 1928, vol. 4
  14. M. Kimura, The Neutral Theory of Molecular Evolution, Cambridge Univ. Press, 1983
  15. Sewell Wright, Evolution and the Genetics of Populations, 4 volumes, Univ. of Chicago Press 1984
  16. J. Maynard Smith, The Evolution of Sex, Cambridge Univ. Press, 1978
  17. F. Hoyle and N. Ch. Wickramasinghe, Our Place in the Cosmos, J. Dent, London, 1993
  18. F. Hoyle and N. Ch. Wickramasinghe, Astronomical Origin of Life: Steps towards Panspermia, Kluwer, Dordrecht, 2000
  19. Francis Crick, Life Itself, Simon and Schuster, New York, 1981
  20. Richard C. Tolman, Relativity, Thermodynamics and Cosmology, Clarendon Press, Oxford, 1934
  21. H. Bondi, T. Gold, The Steady-State Theory of the Expanding Universe, Monthly Notices of the Royal Astronomical Society, 108, 252-70, 1948
  22. Stanisław Lem, Głos Pana, Czytelnik, Warszawa, 1968
  23. J.W.G. Johnson, Na bezdrożach teorii ewolucji, Michalineum, Struga 1989
  24. Andrzej Jerzmanowski, et al., Biologia dla kl. IV o profilu biol.-chem., Wydawnictwa Szkolne i Pedagogiczne, Warszawa, 1998
  25. David Berlinski, The Deniable Darwin, Commentary vol. 101, p.19, 1996
  26. David Berlinski, On the Origins of Mind, Commentary vol. 118, p.26, Novemrer 2004
  27. F. Hoyle, Hoyle on Evolution, Nature, 294, 148, 1981
  28. Michael J. Behe, Darwin’s Black Box, the Biochemical Challenge to Evolution, Free Press, 1996, USA
  29. Carl Sagan, New Scientist, Jan. 17, 1980
  30. S.W. Hawking, zob. www.damtp.cam.ac.uk/strtst/dirac/hawking/
  31. D. Quammen, Czy Darwin się mylił?, National Geographic (pl), Nr. 11 (62) 2004
  32. Ian Musgrove, też John Stockwell, obaj w : www.talkorigins.org/fags (2004r)