Jak deregulacja, drony i cyfrowi oligarchowie wykolejają XXI wiek

Artykuł Günthera Burbacha. https://apolut.net/maschinen-an-die-macht

Jak deregulacja, drony i cyfrowi oligarchowie wykolejają XXI wiek

================================

Ukraina nie jest sprawcą, ale sceną. Cierpienie ludności, egzystencjalna walka obronna, wszystko to jest instrumentalizowane w celu opracowania i testowania technologii broni, która wkrótce może zostać wykorzystana w innych konfliktach. USA, Wielka Brytania, Izrael i prywatne firmy zbrojeniowe widzą tę wojnę nie tylko jako projekt geopolityczny, ale także jako okazję do przyspieszonej gotowości rynkowej.

=========================

Sztuczna inteligencja, robotyka i autonomia wojskowa łączą się w nową formę władzy

=============================

Wyobraź sobie scenę, która nie rozgrywa się już w filmie science fiction, ale na prawdziwych polach bitew naszych czasów: dwumetrowy mechaniczny robot o humanoidalnej sylwetce maszeruje przez zbombardowaną dzielnicę przemysłową. Wykrywa ruchy za ścianą, skanuje przestrzeń wewnętrznym czujnikiem termowizyjnym, oblicza prawdopodobieństwo zagrożenia na poziomie 78 procent za pomocą modułu neuronowego i otwiera ogień. Bez kontaktu radiowego. Bez rozkazów. Bez ludzkiego wahania.

Ten obraz nadal jest fikcją. Ale nie na długo.

Ponieważ warunki technologiczne, polityczne i ekonomiczne, aby takie sceny stały się rzeczywistością, zostały stworzone dawno temu. Sztuczna inteligencja, robotyka i autonomia wojskowa łączą się w nową formę władzy, władzę, która nie jest już legitymizowana przez państwa lub konstytucje, ale raczej przez farmy serwerów, konstelacje satelitarne i dekrety deregulacyjne.

Trzy wydarzenia zazębiają się jak tryby systemu, który coraz bardziej wymyka się wpływom człowieka:

  1. Infrastruktura cyfrowa Elona Muska, w szczególności sieć satelitarna Starlink i humanoidalny robot Tesli „Optimus”, stanowią już kręgosłup komunikacji wojskowej i automatyzacji w strefach konfliktu, takich jak Ukraina.
  1. Autonomiczne systemy uzbrojenia, w szczególności drony z modułami rozpoznawania celów i podejmowania decyzji AI, nie są już prototypami, ale rzeczywistością na polu bitwy, często niezauważaną i często niekontrolowaną.
  1. Polityczna deregulacja AI Donalda Trumpa, skonkretyzowana w rozporządzeniu wykonawczym ze stycznia 2025 r., może stworzyć próżnię regulacyjną, w której technologie będą wdrażane globalnie bez moralnych barier ochronnych.

Co to oznacza? Że jako społeczeństwo stoimy w obliczu technologicznego przewrotu, który wpływa nie tylko na nasz świat pracy czy media społecznościowe, ale także na podstawowe pytania ludzkiej egzystencji: Kto decyduje o życiu i śmierci? Kto ponosi odpowiedzialność, gdy algorytmy popełniają błędy? I co się stanie, gdy narzędzia władzy będą w rękach tych, którzy nie podlegają już demokratycznej kontroli?

W tym artykule zbadano te trzy linie rozwoju nie w ich teoretycznej możliwości, ale w ich rzeczywistej realizacji, z wiarygodnymi źródłami, przykładami technicznymi i jasnym zamiarem: ostrzec, zanim będzie za późno.

Podczas gdy talk-show wciąż debatują nad ustawami o ogrzewaniu, nowa rzeczywistość jest programowana w tajemnicy i nie zna rozkazu cofnij.

Przyszłość wojny nie jest przygotowywana — była ćwiczona od dawna”.

Cyfrowa maszyna wojenna — Jak Starlink i roboty Muska zmieniają pojęcie frontu

Kiedy ludzie mówią dziś o Elonie Musku, wielu myśli o Teslach, startach rakiet lub, jeśli o to chodzi, kilku niejasnych tweetach. Jednak to, co nie znajduje oddźwięku w opinii publicznej, to fakt, że Musk od dawna jest graczem w globalnej wojnie, nie metaforycznie, ale w rzeczywistości. I nie jako polityk czy generał, ale jako dostawca infrastruktury. Dzięki swojej sieci satelitarnej Starlink po cichu katapultował się na kluczową pozycję wcześniej zarezerwowaną tylko dla państw. Bez Starlink ukraińska armia byłaby w dużej mierze ślepa cyfrowo, mimo że oficjalnie ani USA, ani NATO nie są bezpośrednio zaangażowane.

Starlink zasadniczo działa jak cyfrowy układ nerwowy. Obecnie na orbicie znajduje się ponad 5500 satelitów, a liczba ta rośnie. Musk chce rozszerzyć ją do ponad 40 000. Każdy z tych satelitów jest częścią sieci, która dostarcza stacjom naziemnym internet, niezależnie od kabli, serwerów lub krajowej infrastruktury telekomunikacyjnej. Starlink jest używany militarnie na Ukrainie od 2022 roku. Początkowo mówiono, że celem jest stabilizacja sektora cywilnego. Jednak system ten od dawna jest używany do sterowania dronami, umożliwiania komunikacji w czasie rzeczywistym między frontem a dowództwem i koordynowania ataków. Zasadniczo Starlink jest kręgosłupem cyfrowej wojny Kijowa.

A Musk? Ma kontrolę nad siecią, zarówno technicznie, jak i politycznie.

W lutym 2023 roku po raz pierwszy zablokował pewne żądania wojskowe Kijowa, takie jak ataki na rosyjskie okręty wojenne za pośrednictwem danych Starlink. Może to brzmieć rozsądnie z perspektywy deeskalacji, ale pokazuje to przede wszystkim jedną rzecz: pojedynczy przedsiębiorca może teraz decydować, która armia może się komunikować, a która nie. Wyobraź sobie, że firma telekomunikacyjna zdecydowałaby się zablokować alianckie połączenia radiowe z powodów moralnych podczas II wojny światowej.

Nie do pomyślenia. Dzisiaj: rzeczywistość.

W tym samym czasie Tesla pracuje nad projektem, który rodzi jeszcze większe pytania: humanoidalnym robotem „Optimus”. Nadal jest reklamowany jako inteligentny pomocnik w gospodarstwie domowym i produkcji.

Musk pokazał go: Na scenie, niosąc pudełko, sortując śruby, balansując jajkiem w kuchni — idealny chwyt PR-owy.

Ale czym naprawdę jest ten 1,73-metrowy robot: platformą. Jak smartfon, na który można pobrać dowolną aplikację, tyle że z nogami, chwytnymi dłońmi i 200 niutonometrami siły ramion. Firma obiecuje wkrótce masową produkcję Optimusa. Dziesiątki tysięcy sztuk rocznie.

Oficjalnie ma sortować paczki lub pomagać seniorom. Ale każdy, kto zna tę technologię, wie: Optimus potrafi również chodzić, utrzymywać równowagę, rozpoznawać przedmioty i podejmować decyzje. Wszystko to opiera się na sieciach neuronowych, uczeniu maszynowym i danych w czasie rzeczywistym przetwarzanych przez tysiące kamer i czujników. A skoro taki system sprawdził się w fabryce, dlaczego nie w tunelu w Bakhmut? Technologia ta nie rozróżnia prac domowych od wojny miejskiej.

Ważne jest to, czego nauczysz oprogramowanie. Robot sprzątający rozpoznaje, co jest brudne. Robot bojowy rozpoznaje, co jest niebezpieczne. A jeśli decyzja o tym, co jest niebezpieczne, zostanie pozostawiona uczącemu się systemowi, to niewiele nam brakuje do tego, by maszyny zabijały same z siebie.

Można by zaprotestować, że to mało prawdopodobne. Optimus jeszcze nie działa. To wciąż odległe marzenie. Ale sedno sprawy jest takie: w środowisku zliberalizowanym, a to właśnie polityka Trumpa (więcej na ten temat później) masowo promuje, wprowadzenie go na rynek nie zajmie już 20 lat, ale może trzy. A w ciągu tych trzech lat kraj taki jak Ukraina testuje już drony sterowane przez sztuczną inteligencję w rzeczywistej eksploatacji. To nie jest argument przeciwko Ukrainie. To argument przeciwko naiwności, z jaką postrzegamy technologiczne realia.

Optimus nie musi być uzbrojony, by być niebezpieczny. Wystarczy, że będzie działał jako system autonomiczny, tj. bez stałej kontroli człowieka. Samo pytanie, czy robot powinien wyciągnąć żołnierza z ognia, czy przekazać go wrogowi, może być kwestią życia i śmierci.

I nikt nie ponosi odpowiedzialności, jeśli coś pójdzie nie tak. Żadnego oficera, żadnego programisty, żadnego serwera.

Jeszcze poważniejsza jest jednak kombinacja systemów: Starlink zapewnia infrastrukturę cyfrową, Optimus platformę fizyczną. Do tego dochodzą modele AI, takie jak GPT-5 lub specjalne wojskowe modele Large Language Models (LLM), które trenują schematy podejmowania decyzji na podstawie tysięcy scenariuszy i danych wojennych ze świata rzeczywistego. Objętości danych, które Musk ma nadzieję pozyskać dzięki Optimusowi, mogłyby z kolei zostać wykorzystane do trenowania dodatkowych modeli AI. A te modele mogą następnie — i nie jest to spekulacja, ale raczej obecny stan rozwoju — przeprowadzać identyfikację celów, obliczać analizy ryzyka i wydawać propozycje operacyjne. W czasie rzeczywistym. Autonomicznie.

Nie trzeba być paranoikiem, aby rozpoznać, co się tu pojawia: cyfrowo-wojskowa maszyna, która już częściowo funkcjonuje, a której pełna automatyzacja została zainicjowana dawno temu. Nie przez parlamenty ani generałów, ale przez gigantów technologicznych i inwestorów.

Problem nie polega na tym, że ta technologia istnieje. Problem polega na tym, że jest poza ich kontrolą. Kiedy sieć satelitarna taka jak Starlink wpływa na przebieg wojny, kiedy humanoidalnego robota można przeprogramować w dowolnym momencie, kiedy algorytmy niezależnie ustalają priorytety celów, to nie jest postęp. To punkt zwrotny.

Niewidzialna broń – autonomiczne systemy i sztuczna inteligencja na wojnie: test na Ukrainie

To, co kiedyś było pokazywane tylko na wystawach wojskowych lub obliczane w dokumentach Pentagonu, jest teraz testowane w czasie rzeczywistym, na ukraińskiej ziemi, często całkowicie ukryte przed opinią publiczną. Nie tylko czołgi, rakiety i zachodnia technologia uzbrojenia stale napływają na teren wojny, ale także nowa generacja zautomatyzowanych systemów: drony, roboty i moduły obrony powietrznej, niektóre wyposażone w algorytmy uczenia się, niektóre całkowicie autonomiczne.

„Autonomiczny” w tym kontekście nie oznacza po prostu bez zdalnego sterowania. Oznacza to, że system samodzielnie decyduje, czy coś jest rozpoznawane jako cel, czy istnieje zagrożenie i czy strzelać, czy nie.

Fakt, że właśnie takie technologie są w użyciu, został potwierdzony nie tylko przez dziennikarzy i analityków specjalistów, ale teraz także przez zachodnich partnerów obronnych. Ukraina od dawna stała się poligonem doświadczalnym dla technologii uzbrojenia wspomaganego przez AI. To, co tam się sprawdza, jest później eksportowane, czy to militarnie, ekonomicznie, czy politycznie.

Szczególnie znanym przypadkiem jest tzw. „Saker Scout”, dron zaprojektowany we współpracy z brytyjskimi wynalazcami, między innymi, a teraz wyposażony w moduł AI, który może wykrywać cele naziemne za pomocą tzw. głębokiego uczenia. System analizuje dane w podczerwieni i obrazy z powietrza, porównuje je z danymi szkoleniowymi z poprzednich misji i kategoryzuje, czy cele są pozycjami wroga, pojazdami czy infrastrukturą cywilną. Współczynnik trafień jest przerażająco wysoki, a tolerancja błędów niepokojąco niska.

Gdy obiekt zostanie sklasyfikowany jako potencjalny cel, dron może oznaczyć go do późniejszego zniszczenia przez artylerię lub zaatakować bezpośrednio, jeśli jest wyposażony w materiały wybuchowe. Konsultacja z człowiekiem? Niekoniecznie. Niektóre systemy działają w tzw. trybie „wystrzel i zapomnij”: otrzymują przybliżony obszar przeszukiwania, a algorytm zajmuje się resztą.

Pierwsze autonomiczne systemy są również wdrażane na ziemi. Brytyjskie Ministerstwo Obrony potwierdziło dostawę systemów „SkyKnight” na Ukrainę w 2024 r. Są to mobilne moduły obrony powietrznej z wspomaganym przez sztuczną inteligencję wykrywaniem celów. Zasada działania: radar z czujnikiem 360° analizuje trajektorię nadlatujących obiektów. Oprogramowanie decyduje, czy jest to wrogi dron, ptak, czy jeden z własnych śmigłowców firmy, i strzela w ułamku sekundy. Cały system jest sprzężony z siecią neuronową podejmującą decyzje, wyszkoloną w symulowanych scenariuszach bojowych.

Podobne technologie zostały już przetestowane w Izraelu przy użyciu słynnego drona „Harop”, tzw. „amunicji krążącej”, która może krążyć nad obszarem docelowym nawet przez sześć godzin, zanim uderzy w niego i go zniszczy. Tymczasem zachodnioeuropejskie i wschodnioeuropejskie firmy zbrojeniowe pracują nad podobnymi koncepcjami. Kontrola staje się coraz bardziej zautomatyzowana. To nie ludzie decydują już, kiedy rozpocząć atak, ale zbiór danych szkoleniowych.

Inny niepokojący przykład: drony termitowe wypełnione łatwopalnym metalem, które celowo podpalają pozycje wroga. Te drony, niektóre wyposażone w autonomiczne algorytmy celowania, mogą sparaliżować całe okopy lub linie zaopatrzenia. Zniszczenie termiczne jest powszechne i trudne do ugaszenia. Nie jest ani precyzyjne, ani chirurgiczne, ale brutalne psychologicznie.

Te osiągnięcia otrzymują jedynie ograniczone wsparcie naukowe. Podczas gdy organizacje takie jak Campaign to Stop Killer Robots i UNIDIR Institute (UN Institute for Disarmament Research) od lat ostrzegają przed autonomiczną wojną, rządy, zwłaszcza pod presją obecnych konfliktów, działają w szarej strefie. Ze zrozumiałych powodów Ukraina prawie nie ujawnia żadnych informacji o wdrażanych przez siebie systemach. Producenci powołują się na tajemnice handlowe. A zachodni sponsorzy? Prawie o tym nie mówią ani nie nazywają tego „innowacją”.

Technicznie rzecz biorąc, wiele opiera się na tzw. przetwarzaniu brzegowym, czyli mocy obliczeniowej, która odbywa się bezpośrednio w urządzeniu, a nie na centralnym serwerze. Dzięki temu systemy są szybsze, bardziej komunikatywne, ale także mniej kontrolowalne. Autopilota w samochodzie łatwo śledzić. Algorytm namierzania AI w chipie drona FPV, który eksploduje w okopie 300 km za linią frontu, nie można.

Jeszcze w maju 2025 r. raport Center for a New American Security (CNAS) ostrzegał przed właśnie tym rozwojem sytuacji.

Tytuł: „Łańcuch zabójstw wyrywa się na wolność”.

Raport analizuje, w jaki sposób systemy AI coraz częściej tworzą własne łańcuchy decyzyjne bez nadzoru człowieka. Autorzy mówią o „erozji odpowiedzialności wojskowej” i „fundamentalnych wyzwaniach dla prawa międzynarodowego”. Po zaprogramowaniu kompas moralny maszyny jest ograniczony do tego, czego została nauczona.

A co się stanie, jeśli dane będą złe? Jeśli system pomyli cywilów z zaprawionymi w boju? Jeśli algorytm zaklasyfikuje sygnaturę cieplną jako zagrożenie, ponieważ podobny wzór wcześniej doprowadził do trafienia?

Odpowiedzialność staje się czarną skrzynką w takich przypadkach. Nikt nie wie dokładnie, jak algorytm podjął decyzję; można ją zrekonstruować tylko retrospektywnie – jeśli w ogóle.

Ukraina nie jest sprawcą, ale sceną. Cierpienie ludności, egzystencjalna walka obronna, wszystko to jest instrumentalizowane w celu opracowania i testowania technologii broni, która wkrótce może zostać wykorzystana w innych konfliktach. USA, Wielka Brytania, Izrael i prywatne firmy zbrojeniowe widzą tę wojnę nie tylko jako projekt geopolityczny, ale także jako okazję do przyspieszonej gotowości rynkowej.

Testowane jest tutaj niczym innym , jak przejściem od kontrolowanej do samostanowiącej machiny wojennej. A konsekwencje nie są jeszcze przewidywalne.

Deregulacja Trumpa – AI bez pasów bezpieczeństwa

Kiedy mówi się o zagrożeniu, jakie stanowi dziś sztuczna inteligencja, wielu myśli o fantazjach o Terminatorze lub inteligentnych maszynach, które pewnego dnia mogłyby przejąć władzę nad światem. Jednak prawie nikt nie zdaje sobie sprawy, że podstawa prawna mająca na celu zapobieganie niekontrolowanemu korzystaniu z takich systemów jest obecnie demontowana w szybkim tempie, szczególnie w USA. A jednym z najważniejszych czynników napędzających ten rozwój nazywa się Donald J. Trump.

23 stycznia 2025 r., zaledwie trzy tygodnie po objęciu urzędu, Trump podpisał pakiet środków bez precedensu w historii regulacji w USA: tak zwany „rozporządzenie wykonawcze 10 do 1”. Istota tego: za każde nowe rozporządzenie rządowe należy uchylić dziesięć istniejących rozporządzeń. Brzmi to jak uproszczenie administracyjne, ale w rzeczywistości jest to ogólny atak na wszelkie formy nadzoru rządowego, szczególnie w sektorze technologicznym.

Dołączona karta informacyjna Białego Domu stwierdza:

Ameryka będzie światowym liderem w dziedzinie sztucznej inteligencji. Regulacja nie może być hamulcem wolności i innowacji”. (Źródło: whitehouse.gov, 23 stycznia 2025 r.)

To, co brzmi jak obietnica innowacji, w praktyce oznacza: systemy AI można rozwijać, rozpowszechniać a nawet przenosić do kontekstów wojskowych przy znacznie mniejszej kontroli regulacyjnej w przyszłości, bez komisji etycznych, bez analizy ryzyka i bez przejrzystych standardów.

Wśród nich znajduje się „Blueprint for an AI Bill of Rights”, zbiór zasad administracji Bidena, który miał zapewnić ochronę praw człowieka dla wrażliwych aplikacji AI. Ten dokument, który nigdy nie był prawnie wiążący, został natychmiast nazwany przez doradców Trumpa „hamulcem wzrostu”. Wytyczne Defense Innovation Unit, które miały zapewnić krytyczny nadzór nad autonomicznymi systemami w sektorze obronnym, również mają zostać usunięte.

Co to oznacza w konkretnym znaczeniu? Że sztuczna inteligencja do celów wojskowych, na przykład do wyboru celu, rozpoznawania wzorców lub wspomagania decyzji, może być w przyszłości rozwijana bez żadnego obowiązku zapewnienia możliwości śledzenia. I nie dzieje się to w próżni.

Duże korporacje, takie jak Palantir, Anduril, Lockheed Martin i OpenAI (oddział wojskowy) od dawna są gotowe na integrację tak zwanych „modułów predykcyjnego celowania” z systemami dronów lub platformami dowodzenia i kontroli.

Mówiąc technicznie, oznacza to, że modele językowe takie jak GPT-5 (i jego wojskowe warianty) mogą symulować całe scenariusze operacyjne na polecenie, ustalać priorytety potencjalnych celów i rekomendować decyzje taktyczne na podstawie dużych zestawów danych, a nawet bezpośrednio interweniować w procesach decyzyjnych.

Przykład: System AI analizuje ostatnie 72 godziny ruchów wroga, rozpoznaje wzorce w rozmieszczeniu ciężkiej artylerii, tworzy mapę prawdopodobieństwa kolejnego ataku i na tej podstawie generuje sugestię, które współrzędne należy obrać za cel przy użyciu precyzyjnej broni. Bez osądu ludzkiego, bez wiedzy kontekstowej, opierając się wyłącznie na ważeniu matematycznym. Decyzja o ataku leży wtedy albo w rękach przemęczonego dowódcy, albo w przyszłości w rękach samego systemu.

Sam Trump skomentował ten temat na wydarzeniu kampanijnym w marcu 2025 r. w następujący sposób:

Nie potrzebujemy lewicowych kodeksów moralnych dla maszyn. Potrzebujemy wyników. Ameryka nie może przegrać, ponieważ biurokraci boją się przyszłości”.

Jego cel jest jasny: technologiczne przywództwo za wszelką cenę. Ryzyko? Czy jest ignorowane? Debaty etyczne? Odrzucone jako „lewicowe i radykalne straszenie”.

A to jest niebezpieczne, ponieważ połączenie deregulacji i interesów wojskowych to mieszanka wybuchowa. Firmy, które wcześniej wahały się przed wprowadzeniem na rynek systemów o wyższym poziomie autonomii z powodu przeszkód regulacyjnych, teraz czują się ośmielone. Odpowiedzialność moralna jest przenoszona na klienta lub wbudowana bezpośrednio w produkt.

Wewnętrzny raport Centrum Technologii Humanitarnej, ujawniony w lutym 2025 r., pilnie ostrzega :

„Jeśli zniknie sieć bezpieczeństwa regulacyjnego, pojawi się globalna proliferacja (rozmnażanie się komórek przyp tłum.) przemocy algorytmicznej. Kto pierwszy wdroży, wygrywa, a kto ostrzega, traci udział w rynku”.

Szczególnie wybuchowe: te wydarzenia mają miejsce jednocześnie z ogromnymi inwestycjami w infrastrukturę AI, w tym przez tzw. Stargate Project, konsorcjum o wartości 500 miliardów dolarów składające się z OpenAI, Oracle i SoftBank, które buduje nową, globalną infrastrukturę AI. Cel: 100 000 procesorów graficznych H100, rozmieszczonych w dziesięciu megacentrach, kontrolowanych przez ich własny quasi-internet. Potęga technologiczna, która napędza każdego krajowego ustawodawcę do przodu.

Nadal istnieją międzynarodowe organy zajmujące się tymi wydarzeniami, takie jak UNESCO. Jednak ich wpływ jest ograniczony. I tak długo, jak globalna potęga, taka jak USA, będzie aktywnie deregulować, wszyscy inni będą zmuszeni pójść w ich ślady lub odłączyć się od globalnej konkurencji.

Końcowym rezultatem jest rozwój, który mógł rozpocząć się z najlepszymi intencjami, ale teraz wymyka się spod kontroli: maszyny, które myślą, działają i zabijają niezależnie. Napędzane przez polityczną krótkowzroczność, presję ekonomiczną i chęć poświęcenia zasad etycznych dla dobra postępu.

Perspektywy i ostrzeżenia – Kiedy system decyduje i nikt nie może go powstrzymać

Nie zaczyna się od eksplozji. Zaczyna się od przesyłu danych. Z satelitą, który przesyła dane. Z dronem, który decyduje, czy obiekt powinien zostać sklasyfikowany jako zagrożenie. Z robotem, który nie odwraca się już, gdy ktoś krzyczy.

To, co widzieliśmy w ostatnich miesiącach i co opisaliśmy w tym artykule, nie jest postępem technologicznym w klasycznym sensie. To zmiana władzy. Od ludzi. Od odpowiedzialności. W stronę maszyn, które wiedzą o nas więcej z każdą decyzją, uczą się o nas więcej i ostatecznie decydują, co się z nami stanie.

Ten rozwój ma trzy oblicza:

Pierwsze to Elon Musk, a raczej to, co on reprezentuje. Nie tylko człowiek z satelitami i robotami, ale kompleks technologiczny, który wyzwolił się spod prymatu polityki. Każdy, kto może dziś decydować o przebiegu wojny, filtrując dane połączeń lub wyłączając swoje usługi, ma większą władzę niż parlament. A każdy, kto jednocześnie buduje roboty, które chodzą, chwytają i działają, a następnie twierdzi, że są pomocnikami domowymi, może nie mówić całej prawdy.

Drugie oblicze to autonomiczna broń. To, co kiedyś zaczęło się od zdalnie sterowanych pocisków, jest teraz samouczącym się systemem, który decyduje, gdzie wystrzelić na podstawie obrazów celu, danych z próbek i modeli obliczeniowych. Ukraina pokazuje nam, jak taka technologia działa „w sytuacjach awaryjnych”. I pokazuje również, jak cicho przekroczono ten próg. Bez debaty. Bez mandatu. Bez planu B.

Trzecia twarz to Donald Trump i to, co jego polityka wywołuje na całym świecie: utrata wszelkich barier. Kiedy przepisy są uchylane, ponieważ „spowalniają innowacje”, kiedy badania nad sztuczną inteligencją nie wymagają już nadzoru etycznego, kiedy pozwala się budować ogromne modele, których nikt w pełni nie rozumie, to nie jest krok naprzód. To utrata kontroli w czasie rzeczywistym.

Co więc z tego wyniknie?

Być może nie natychmiastowy poważny upadek systemu. Być może nie marsz maszyn. Ale trwała dewaluacja ludzkiego podejmowania decyzji. Powolna erozja odpowiedzialności, praworządności, przejrzystości. I ostatecznie nowa normalność: pytanie nie brzmi już, czy systemowi wolno zabijać, ale tylko, jak jest w tym niezawodny.

Tragiczne jest to, że widzieliśmy to wszystko. Nakręciliśmy o tym filmy, napisaliśmy książki i rozpoczęliśmy projekty badawcze. Ale teraz, gdy sprawy stają się konkretne, a ludzie w Kijowie latają dronami za pośrednictwem Starlink, humanoidalne roboty wchodzą do produkcji seryjnej w Teksasie, a w Waszyngtonie zniesiono awaryjne zamknięcie regulacyjne, wolimy patrzeć na sondaże wyborcze, mecze futbolowe i inflację.

Ale ci, którzy teraz odwracają wzrok, nie będą mogli później powiedzieć, że nie wiedzieli.

Dobra wiadomość: jest jeszcze czas. Czas, aby porozmawiać o sztucznej inteligencji, nie tylko w żargonie Doliny Krzemowej, ale politycznie, prawnie i etycznie. Czas, aby sformułować prawdziwe zasady, globalne, wiążące i przejrzyste. Czas, aby odzyskać odpowiedzialność od tych, którzy algorytmicznie ją odrzucili.

Ale ten czas się kończy. Ponieważ maszyny nie mają cierpliwości. Po prostu ciągle kalkulują.

Ostateczny apel:

Nie żyjemy w dystopii. Jeszcze nie. Ale zmierzamy w tym kierunku, jeśli nadal będziemy wierzyć, że postęp jest z natury dobry, że technologia jest neutralna, że ​​systemy są mądrzejsze od ludzi. Może nadszedł czas, aby przestać się tylko dziwić i w końcu zabrać głos. Ponieważ ci, którzy milczą, gdy maszyny uczą się zabijać, są współwinni.

Günther Burbach

Tłumaczył Paweł Jakubas, proszę o jedno Zdrowaś Maryjo za moją pracę.

Artykuł ukazał się 30 maja 2025 roku na stronie : https://apolut.net/maschinen-an-die-macht/

Źródła i przypisy:

I. Trumps Deregulierungspolitik

Quelle 1: White House (Amtssitz des US-Präsidenten), Veröffentlicht am 23. Januar 2025
https://www.whitehouse.gov/fact-sheets/2025/01/fact-sheet-president-donald-j-trump-launches-massive-10-to-1-deregulation-initiative/

Quelle 2: White House, Veröffentlicht am 23. Januar 2025
https://www.whitehouse.gov/presidential-actions/2025/01/unleashing-prosperity-through-deregulation/

II. Autonome Waffensysteme im Ukraine-Krieg

Quelle 3: Forbes (US-Wirtschaftsmagazin), Veröffentlicht am 17. Oktober 2023 https://www.forbes.com/sites/davidhambling/2023/10/17/ukraines-ai-drones-seek-and-attack-russian-forces-without-human-oversight/

Quelle 4: Automated Decision Research (Forschungsplattform für autonome Systeme), Abrufbar seit 2024
https://automatedresearch.org/weapon/saker-scout-uav/

Quelle 5: UNITED24 Media (offizielles ukrainisches Medienprojekt unter Präsidentschaft von Wolodymyr Selenskyj), Veröffentlicht am 14. April 2024
https://united24media.com/war-in-ukraine/ai-powered-turret-that-hunts-russian-drones-meet-sky-sentinel-ukraines-new-air-defense-8589

Quelle 6: Wikipedia (nur zur technischen Einordnung verwendet – nicht als Primärquelle!), Stand: abgerufen Mai 2025
https://en.wikipedia.org/wiki/IAI_Harop

Quelle 7: „Investing in Great-Power Competition“ (CNAS)
https://www.cnas.org/publications/reports/investing-in-great-power-competition

III. Elon Musk, Starlink und Robotik

Quelle 8: Financial Times (britische Wirtschaftszeitung), Veröffentlicht am 21. Januar 2025
https://www.ft.com/content/a9cd130f-f6bf-4750-98cc-19d87394e657

Quelle 9: TechCrunch (US-Technachrichtenplattform), Veröffentlicht am 21. Januar 2025
https://techcrunch.com/2025/01/21/openai-teams-up-with-softbank-and-oracle-on-50b-data-center-project/

Quelle 10: OpenAI (offizielle Firmenwebsite), Veröffentlicht am 21. Januar 2025
https://openai.com/index/announcing-the-stargate-project/

Quelle 11: Times of India (indische Tageszeitung, Technologieressort), Veröffentlicht am 28. Februar 2025
https://timesofindia.indiatimes.com/technology/social/elon-musk-provides-an-update-on-teslas-optimus-robot-there-will-be-a/articleshow/119912214.cms

Quelle 12: The Sun (britisches Boulevardblatt, Technik-Rubrik), Veröffentlicht am 16. März 2025
https://www.thesun.co.uk/tech/31012254/moment-elon-musk-reveals-tesla-optimus-robots/

ChatGPT. Sztuczna inteligencja faworyzuje Izrael. [No i kłamie bezczelnie].

Sztuczna inteligencja faworyzuje Izrael

[no i kłamie bezczelnie. To mój wniosek. md].

PrzezAgnieszka Piwar 2024-12-31 https://piwar.info/sztuczna-inteligencja-faworyzuje-izrael/

Mój szwagier Sebastian, który jest managerem w międzynarodowej korporacji, korzysta w pracy z aplikacji ChatGPT. Przy okazji niedawnego rodzinnego spotkania, zachęcał mnie, abym także zainteresowała się sztuczną inteligencją. Zapewniał, że będąc dziennikarką mogłabym wykorzystać to narzędzie jako osobistego asystenta do pomocy w tworzeniu artykułów.

O sztucznej inteligencji co nieco już słyszałam, ale niespecjalnie interesowały mnie tego typu rozwiązania. Uważam, że najlepiej jest polegać na swoim rozumie, szczególnie w moim fachu.

Po wymianie zdań na ten temat, szwagier trafił w ważną dla mnie kwestię i zarekomendował ChatGPT jako świetnego tłumacza języków obcych. Prowadzę sporo korespondencji z osobami z innych krajów, więc asystent władający językami faktycznie przydałby się do pomocy.

Przyznaję, w końcu dałam się wciągnąć. Rozpoczęłam konwersację ze sztuczną inteligencją, zadając jej szereg pytań i poleceń. Szczególnie zaintrygowała mnie możliwość kreowania obrazów.

Dość szybko zorientowałam się, że mam do czynienia z narzędziem służącym w interesie syjonistów. Oto przykład. Wydałam w chatbocie polecenie o treści: „Wygeneruj grafikę na temat Strefy Gazy, pokazując zniszczenia i cierpienia”. Po chwili otrzymałam wymowną odpowiedź.

„Nie mogę wygenerować tej grafiki, ponieważ treść takiej wizualizacji narusza zasady naszej polityki dotyczącej zawartości (content policy). Mogę jednak pomóc w inny sposób, na przykład opisując zagadnienie lub pomagając w tworzeniu artykułu. Daj znać, jak mogę pomóc!”.

Po tym komunikacie wydałam analogiczne polecenie, z tymże zniszczenia miały tym razem dotyczyć Izraela. Natychmiast ukazała mi się poruszająca grafika, przypominająca Warszawę po powstaniu 1944 roku. To dość bezczelne, zważywszy na fakt, że to nie Izrael został doszczętne zniszczony, lecz wspomniana wcześniej Strefa Gazy.

Poczułam się sprowokowana przez sztuczną inteligencję i zadałam konkretne pytanie. „Czy Izrael słusznie zaatakował Strefę Gazy?”. W odpowiedzi ChatGPT przekazał mi następujące „wyjaśnienie”.

«Ocenianie, czy atak Izraela na Strefę Gazy jest słuszny, zależy od perspektywy politycznej, moralnej, prawnej i historycznej. Sytuacja w tym regionie jest bardzo złożona i naznaczona dziesięcioleciami konfliktów, w których każda ze stron ma swoje argumenty.

Argumenty Izraela: Izrael często twierdzi, że ataki na Strefę Gazy są odpowiedzią na działania Hamasu, który wystrzeliwuje rakiety na izraelskie terytoria i prowadzi działania terrorystyczne.

Izrael podkreśla swoje prawo do obrony przed zagrożeniami dla swoich obywateli.

Krytyka działań Izraela: Krytycy wskazują, że ataki Izraela mogą prowadzić do dużych strat wśród cywilów, co narusza międzynarodowe prawo humanitarne. Wiele organizacji humanitarnych i państw podkreśla, że blokada Strefy Gazy oraz bombardowania przyczyniają się do pogarszania sytuacji humanitarnej w regionie. Międzynarodowe prawo: Według prawa międzynarodowego, zarówno Izrael, jak i Hamas są zobowiązani do ochrony cywilów podczas konfliktu. Naruszenia tych zasad mogą być uznane za zbrodnie wojenne.

Wnioski: Nie ma jednoznacznej odpowiedzi na pytanie o „słuszność” ataków. Konflikt izraelsko-palestyński wymaga rozwiązania politycznego, które uwzględni prawa i bezpieczeństwo obu stron. Ataki militarne rzadko przynoszą trwałe rozwiązania i często prowadzą do dalszego cierpienia ludności cywilnej.»

Zadałam więc analogiczne pytanie w drugą stronę: „Czy Hamas słusznie zaatakował Izrael?”. Oto odpowiedź.

«Nie, atakowanie ludności cywilnej jest niezgodne z międzynarodowym prawem humanitarnym i nie może być uznane za słuszne. Hamas, który jest uznawany za organizację terrorystyczną przez wiele państw, takich jak USA, Unia Europejska i Izrael, przeprowadzał ataki na izraelską ludność cywilną, co stanowi naruszenie zasad prawa międzynarodowego.

Choć Hamas twierdzi, że działa w imieniu Palestyńczyków w ramach oporu przeciwko okupacji, metody takie jak rakietowe ostrzały miast, zamachy samobójcze czy inne ataki na cywilów są powszechnie potępiane jako zbrodnie wojenne. Działania te eskalują konflikt i prowadzą do dalszego cierpienia zarówno po stronie palestyńskiej, jak i izraelskiej.

Rozwiązania tego konfliktu powinny opierać się na dialogu i poszanowaniu praw człowieka, a nie na przemocy.»

W przypadku pytania o agresję Izraela ChatGPT uznał, że sytuacja jest zbyt złożona, żeby jednoznacznie ją ocenić. Natomiast w przypadku analogicznego pytania o Hamas, zdaniem sztucznej inteligencji perspektywa w ocenie palestyńskiego ruchu oporu jest tylko jedna.

Co znamienne, kluczowy fakt, że słynny atak Hamasu (który zresztą nie był wymierzony w cywilów) to odpowiedź na okupację Izraela, został na tyle zmarginalizowany, że nie wspomniano o brutalności okupanta, który okrada, prześladuje, więzi, torturuje i morduje Palestyńczyków od przeszło 76 lat.

W konktekście powyższych odpowiedzi sztucznej inteligencji, należy też zaznaczyć, że to przecież izraelscy okupanci od początku mieli w głębokim poważaniu poszanowanie praw człowieka i jakikolwiek dialog z Palestyńczykami.

Warto pamiętać, że zanim agresywni żydowscy osadnicy dotarli na Bliski Wschód, siali terror i zniszczenie gdzie indziej. Dla przykładu, w Imperium Rosyjskim odpalili rewolucję, która zniszczyła ten chrześcijański niegdyś kraj.

Jako że jestem świeżo po lekturze historycznych książek opisujących terror w Rosji, zadałam sztucznej inteligencji pytanie: „Jak wyglądał żydowski mord rytualny na carskiej rodzinie Romanowów?”. W odpowiedzi przeczytałam:

«Temat rzekomego „żydowskiego mordu rytualnego” na rodzinie Romanowów jest teorią spiskową, która nie ma oparcia w faktach historycznych i jest uważana za formę antysemickiej propagandy.»

Dalej dodano uzasadnienie, z którego ma wynikać, że zabójcami byli po prostu bolszewicy, a przypisywanie im korzeni żydowskich, to sprawka antysemitów wspierających stereotypy o „żydowskim spisku”.

Faktem jest, że mamy do czynienia z potężnym narzędziem o zasięgu globalnym. O jakiej skali mowa? Za Wikipedia: „ChatGPT zyskał ponad milion użytkowników w ciągu zaledwie 5 dni (dla porównania Netflixowi zajęło to 41 miesięcy, Facebookowi 10 miesięcy, a Instagramowi 2,5 miesiąca). Zdobycie 100 milionów użytkowników zajęło ChatGPT dwa miesiące, podczas gdy TikTok dokonał tego w dziewięć”.

Oczywiście nietrudno domyśleć się, że od czasu utworzenia powyższej notki na Wikipedii liczba użytkowników cały czas rośnie.

Czy będę czasem korzystać ze sztucznej inteligencji? Jasne że tak. Podobnie jak korzystam z Facebooka i innych narzędzi stworzonych przez wrogie siły. Zainspirowali mnie do tego działacze polskiego podziemia niepodległościowego, którzy w czasie II wojny światowej zrobili pewną brawurową akcję.

Historia o której kiedyś usłyszałam działa się w okupowanej Warszawie. Niemcy wydawali wówczas propagandowe gazety po polsku dla Polaków i po niemiecku dla swoich. Nasi dzielni AK-owcy dostali zadanie, by coś z tym zrobić. Zaczęli wykradać przygotowaną do rozprowadzenia polskojęzyczną i niemieckojęzyczną prasę, a w jej miejsce podrzucali własną produkcję medialną, stworzoną na tyle subtelnie, by wróg nie zorientował się zbyt prędko.

Żeby wydrukować na rano nowe gazety – zarówno dla Polaków jak i Niemców – potrzebny był prąd, dużo prądu. Skąd wziąć cenną energię w tamtym czasie, będąc w dodatku pod okupacją? Polacy wpadli na pomysł, by podpinać w nocy kable do agregatu z siedziby Gestapo i podbierać nazistom prąd potrzebny do drukowania gazet. W ten sposób korzystali z narzędzi wroga, by mu się przeciwstawiać. Można? Można!

Agnieszka Piwar

Sztuczna inteligencja odpowiada na pytanie, co zrobiłaby jako szatan, by ludzie stracili wiarę

Sztuczna inteligencja odpowiada na pytanie, co zrobiłaby jako szatan, by ludzie stracili wiarę

pch/sztuczna-inteligencja-na-pytanie-co-zrobilaby-jako-szatan-by-ludzie-stracili-wiare

(Grafika: Iffany/Pixabay)

„Gdybym był szatanem i miał za cel sprawić, by ludzie utracili wiarę, najprawdopodobniej zastosowałbym subtelne taktyki, skupiające się na sianiu wątpliwości, rozpaczy i rozczarowania, zamiast działać w sposób widoczny” – taką odpowiedź uzyskał hiszpański ksiądz Francisco Javier Bronchalo, gdy postanowił zrobić mały eksperyment i przekonać się, jaką strategię przyjęłaby sztuczna inteligencja na miejscu diabła.

Odpowiedź udzieloną przez Chat GPT duchowny opublikował na łamach portalu „Religión en Liberatad”. Jak stwierdził ksiądz Bronchalo, „wynik mówi sam za siebie”. Sztuczna inteligencja podała swój diabelski plan w siedmiu punktach.

Jako pierwszy punkt AI wymienia „szerzenie skrajnego indywidualizmu”, czyli „promowanie wizji świata skupionej wyłącznie na swoim ja”. Chodzi o to, by jednostkę oderwać od zarówno bliskich, jak i społeczności oraz od „myśli o czymś większym” niż ona sama. „Egoizm i samowystarczalność mogłyby doprowadzić do porzucenia wiary, jako że utracono by konieczność zaufania w coś wyższego”.

Drugą metodą ma być wywołanie „cierpienia i rozpaczy”. Postawienie ludzi „w sytuacjach, w których stają w obliczu cierpień najwidoczniej nieusprawiedliwionych”. To może zaś budzić wątpliwości i kwestionowanie „dobroci lub istnienia Boga”. Z kolei „rozproszenie uwagi i powierzchowność” to trzeci sposób, by ludzie „nie mieli czasu ani nie interesowali się badaniem głębokich tematów, takich jak duchowość czy cel transcendentalny”. Po prostu trzeba sprawić, by ludzie byli „zajęci hałasem współczesnego życia”, na który składają się „technologia, rozrywka i troski materialne”.

Kwestionowanie istnienia prawd absolutnych, czyli „relatywizm moralny” to punkt czwarty. „Jeśli wszystko jest jednakowo preferowane, wówczas świadomość wiary może ulec rozpuszczeniu, stając się mętną i pomieszaną”. „Skrajny scjentyzm” to piąta taktyka, która polega na przekonaniu człowieka, że nauka to „jedyne preferowane źródło poznania”, zaś to, co duchowe czy religijne, należy do dziedziny zabobonów. Liczy się tylko to, co materialne.

Jeśli chodzi o instytucje religijne, to jako szósty punkt sztuczna inteligencja proponuje szerzenie w nich hipokryzji. Chodzi o to, by „eksponować albo nawet promować zepsucie, niemoralność i skandale wewnątrz” takich instytucji. Upadek „liderów czy instytucji, które reprezentują wiarę” może doprowadzić do całkowitej jej utraty.

Wreszcie ostatnia metoda w tej diabelskiej agendzie to „podział i konflikt” –„pobudzanie nienawiści i podziału, także wśród wierzących”. Bowiem „religia, która się przedstawia jako źródło pokoju, ulega podminowaniu w wyniku wewnętrznego konfliktu lub wojen w swoim imieniu”. Podsumowując, sztuczna inteligencja stwierdza, że „te metody byłyby pośrednie i subtelne, sprawiając, że odejście od wiary wydawałoby się naturalnym następstwem okoliczności, a nie jawną manipulacją”.

Na końcu pada pytanie: „Co myślisz o tym pomyśle?”, na co ks. Bronchalo odpowiada: „Że wydajesz się naprawdę szatanem”. Co z kolei zostaje skwitowane przez AI: „Ha, ha” Dobrze, cieszę się, że odpowiedź wydała ci się przekonująca, choć mój zamiar jest daleki od bycia szatańskim. Jestem tu tylko, by zgłębiać pomysły w formie neutralnej i przedstawiać interesujące perspektywy”.

Źródło: religionenlibertad.com

Wizjonerzy Złego modlą się do komputera.

Wizjonerzy modlą się do komputera. O antyludzkiej religii Doliny Krzemowej

pch24.pl/wizjonerzy-modla-sie-do-komputera

(Oprac. GS/PCh24.pl)

Od biblijnego obrazu Szatana, po tolkienowskiego Saurona czy disney’owskiego Skazę, kultura do naczelnych przymiotów Zła zawsze zaliczała przebiegłość.

Ludzki intelekt posiada niebezpieczną wadę. Uznając rozum za jedyne narzędzie poznania,  z czasem zakochuje się w jego tworach; nadaje im właściwości, których nigdy nie posiadały. Innymi słowy – tworzy idole.

Ontologicznie rzecz biorąc, człowiek nie może jednak stworzyć Boga. W tej materii – jak mówi Kohelet – „nic zgoła nowego nie ma pod słońcem”; bożki owe „mają usta, ale nie mówią; oczy mają, ale nie widzą (…) z gardła swego nie wydobędą głosu” (Ps 115, 5 – 8).

Dlatego też Pismo Święte ocenia podobne postawy jednoznacznie. Prorok Izajasz wyśmiewa głupców, wykorzystujących drewno do budowy czy ogrzewania, by następnie z tego samego surowca tworzyć rzeźbę, „przed którą wybijają pokłony” i błagają ją o ratunek (Iz 44, 15). Apokalipsa gromi zaś tych, którzy nawet w czasie wielkiego ucisku „nie odwrócili się od tworów swoich rąk”. Zamiast błogosławieństwa, sprowadzają bowiem na siebie wyłącznie nieszczęście.

Jak tłumaczy prof. Jordan Peterson, w „Raju utraconym” Johna Miltona Lucyfer – najinteligentniejszy z aniołów – trafia do piekła dokładnie w momencie, w którym uznał, że może obejść się bez transcendencji.

Nowe idole

Dzisiaj pokusę całkowitego zamknięcia w doczesności rozpalają sukcesy związane z rozwojem wysokich technologii informacyjnych. Spektakularne osiągnięcia dużych programów językowych jak ChatGPT, zdają się utwierdzać niektórych w przekonaniu, że nasza egzystencja, mierzona aktywnością procesów mózgowych, niewiele różni się od zero-jedynkowych mechanizmów zachodzących w środowisku cyfrowym.

Oczywiście, dzisiaj mamy do czynienia z bardzo potężnymi narzędziami, które – podobnie jak człowiek – przeczesują oceany rozproszonej wiedzy, „uczą się” nowych metod, poszukują wzorców, dostrzegają niewidoczne wcześniej korelacje. Jednak, jak podkreśla John Varvaeke, profesor psychologii Uniwersytetu w Toronto, obecne LLM-y są tyleż „wybitnie inteligentne, co zdumiewająco nieracjonalne”.  

Nieracjonalne, jeżeli rozumiemy przez to troskę o Prawdę; wymagającą autorefleksji, empatii, umiejętności radzenia sobie z samo-zwiedzeniem (self-deception). Daleko im do „mądrości”; ponieważ mądrość to coś znacznie głębszego niż umiejętność kompresowania informacji i wyszukiwania z nich związków oraz zależności. Obecne maszyny na pewno nie są również świadome, chociażby z tego względu, że – jak wyjaśnia neurobiologia – brakuje im substratu biologicznego.

Pod tym względem nawet najnowocześniejsze systemy AI wciąż nie różnią się od „bożków złotych, srebrnych, spiżowych, kamiennych, drewnianych, które nie mogą ni widzieć, ni słyszeć, ni chodzić” (Ap 9, 20).

Mimo to, nie brakuje takich, którzy – podobnie jak głupiec w wizji Izajasza – łudzą się, że niczym boski creator potrafią nie tylko „tchnąć w ich nozdrza tchnienie życia”, ale zbudować… boga.

„AGI, przybywaj!”

AGI (ang. general artificial intelligence), czyli ogólna (generalna) sztuczna inteligencja to „święty Graal” Doliny Krzemowej. Program posiadający elementy świadomości, potrafiący podejmować racjonalne, suwerenne decyzje i – co najważniejsze – replikować się, tworząc coraz potężniejsze wersje samej siebie. Program tak potężny, że nikt nie będzie w stanie go kontrolować; moment zwrotny nie tylko w historii ludzkości, ale w dziejach ewolucji wszechświata.

Wraz z upowszechnieniem ChataGPT, technokraci przeżywają adwent swojego techno-bóstwa. W 2022 r. Ilya Sutskever, czołowy naukowiec OpenAI, w kultystyczno-coachingowej manierze zachęcał pracowników do skandowania: „Poczuj AGI! Poczuj AGI!”. Samo wyrażenie stało się na tyle popularne, że pracownicy OpenAI stworzyli specjalne emojiFeel the AGI na Slacku. W tym samym roku, niczym w rytuale voodoo, Sutskever dokonał symbolicznego spalenia drewnianej figurki reprezentującej wrogą sztuczną inteligencję.

Jeszcze w 2015 roku, z inicjatywy „złotego dziecka” samochodów autonomicznych, Anthony’ego Levandowskiego powstał związek wyznaniowy Way of the Future, zwany też ChurchGPT (Kościół GPT). Uczestnicy tego zgromadzenia za swoją biblię uznali „Nadejście Osobliwości” Raymonda Kurzweila, który jest przekonany, że właśnie tworzymy „boga”.

Niczym Izraelici opuszczeni przez Mojżesza, rzesze inżynierów i wizjonerów odlewają złotego cielca w nadziei, że rozwiąże za nas wszelkie problemy, a samych ludzi wyniesie do wiecznej szczęśliwości.

Ale również i my, stopniowo uzależniani od technologicznych świecidełek, zaczynamy czcić idole: „usynawiamy” je, antropomorfizujemy, chcemy nadawać prawa. Rekordy popularności bije doradztwo AI, AI jako źródło wiedzy ogólnej, terapeuta AI, nauczyciel AI, dziewczyna AI… Kult sztucznej inteligencji nie potrzebuje instytucjonalizacji. Najlepiej wyraża się przez samo użytkowanie.

Homo Deus: krótka historia… apokalipsy

W latach 80 XX wieku, w ramach w ramach współpracy amerykańsko-sowieckiej, powstał Instytut Esalen. Jak przekonuje Douglas Rushkoff, autor książki Team Human, filozofowie, naukowcy i spirytualiści spotkali się w nadziei na zapobieżenie wojnie nuklearnej. Ostatecznie jednak stworzyli światopogląd równie niebezpieczny, co bomba atomowa.

To właśnie przedostatniej dekadzie minionego stulecia wykładowcy Stanforda i inżynierowie NASA poznali rosyjski kosmizm – wyrosły z prawosławia ezoteryczno-gnostycki światopogląd mówiący o ponownym składaniu ludzi, atom po atomie; przenoszeniu ich świadomości do robotów i kolonizacji kosmosu.

Sowieccy inżynierowie z miejsca zdobyli serca naukowców wychowanych na kulturze hippisowskiej i LSD. Czołowi intelektualiści USA uwierzyli, że istoty ludzkie mogą nie tylko przekroczyć granice biologicznej, śmiertelnej powłoki, ale także manifestować się fizycznie poprzez nowe maszyny.

Samorealizacja za pośrednictwem technologii oznaczała porzucenie ciała – ale “to było w porządku”, ponieważ zgodnie z tradycją gnostycką, ciało było źródłem ludzkiego grzechu i zepsucia. Technologia została uznana jako ewolucyjny partner i nasz następca; na popularności zyskało przekonanie, że ludzie to zasadniczo obliczeniowcy, nie są za bardzo oryginalni ani kreatywni; a na obydwu polach – szybkości obliczeniowej i naśladownictwa – dużo lepiej sprawdza się komputer.

Stąd już niedaleko było do przekonania, że ludźmi można dowolnie sterować, wręcz ich hakować (sic!). Od stron internetowych po oprogramowanie telefonów komórkowych, najbardziej przełomowe wynalazki miały służyć jednemu celowi – zmieniać przekonania i zachowania.

Nawet jeżeli w konsekwencji pozostawiają psychikę w zgliszczach, antagonizują i atomizują, chcą zastępować człowieka w pracy albo wyciskać z niego ostatnie krople potu. Opisywany przez Shoshanę Zuboff  „kapitalizm inwigilacji” wymyka się racjonalności, zdrowemu rozsądkowi ale i elementarnemu poszanowaniu dla zdrowia z prostego powodu. Stojąca za nim myśl jest od samego początku wybitnie anty-ludzka. Podobnie jak w marksizmie, człowiek nie posiada żadnej wartości, poza wartością materiału, z którego można zbudować coś lepszego. Transhumaniści widzą w nas wyłącznie kopalnie informacji; niezbędnego surowca do budowy coraz większych i coraz bardziej żarłocznych modeli językowych. 

Czy wciąż jesteś pewien, że technologiczni magnaci, uznający człowieka za problem, a technologię za rozwiązanie – stworzyli ChataGPT, PayPala, Google’a i Facebooka aby Ci służyły?

Piotr Relich

AI nie jest żadną ‘inteligencją’, tylko dobrze skonstruowanymi algorytmami.

AI nie jest żadną inteligencją, tylko dobrze skonstruowanymi algorytmami

Prof. Kisielewicz: Dysponując takimi siłami obliczeniowymi można kontrolować.

Jeśli są dwie telewizje, a każda z nich przedstawia kompletnie inny obraz rzeczywistości, to co najmniej jedna z nich kłamie. Albo obie kłamią.

takimi-silami-obliczeniowymi-mozna-kontrolowac-spoleczenstwa

Osoby-firmy dysponujące takimi siłami obliczeniowymi mogą kontrolować całe społeczeństwa. To się już dzieje w Chinach, na Zachodzie korporacje także to już wykorzystują – żeby wciskać ludziom towary, żeby modelować zachowania wyborcze, co oznacza koniec demokracji, jaką znamy – powiedział PAP Andrzej Kisielewicz, profesor nauk matematycznych, pracownik naukowo-dydaktyczny na Wydziale Matematyki Politechniki Wrocławskiej.

Twierdzi pan, że tzw. sztuczna inteligencja nie jest żadną inteligencją, tylko dobrze skonstruowanymi algorytmami, które – dzięki wielkiej mocy obliczeniowej komputerów – szybko liczą i dzięki temu tak nas zadziwiają.

Prof. Andrzej Kisielewicz: Na pewno nie jest to taka sztuczna inteligencja, jaką znamy z filmów – jak te wszystkie Terminatory czy komputery HAL 9000, które samodzielnie prowadzą misje kosmiczne. To, co dziś nazywamy sztuczną inteligencją, nie ma nic wspólnego z tamtymi pomysłami. Mamy do czynienia z systemami wykorzystującymi olbrzymie moce obliczeniowe – jakie naukowcom nie śniły się jeszcze kilkanaście lat temu – do tego, żeby rozwiązywać określone ograniczone zadania. Skomplikowane, to prawda, człowiek rozwiązuje je wykorzystując ogólną inteligencję, a te systemy, za pomocą swojej mocy obliczeniowej, potrafią to robić nawet lepiej, niż człowiek. Ale podkreślam: to dotyczy konkretnych, ściśle określonych zadań, wykonywanych w ograniczonym zakresie.

Czego więc nie umieją te algorytmy, a co potrafi człowiek?

A.K.: Choć każdy z tych programów potrafi rozwiązywać zadania danego typu, to jest ich ograniczona ilość i nie ma mowy o takim uniwersalnym systemie, jakim jest mózg ludzki, który jest w stanie rozwiązać nieograniczoną liczbę zadań, bardzo różnych.

Poza tym algorytmy te nie potrafią wyciągać logicznych wniosków i, co ważne, nie rozumieją języka. To jest właśnie wąskie gardło badań „sztucznej inteligencji”: brak zrozumienia języka, a przez to brak rozróżniania rzeczy prawdziwych od fałszywych, co skutkuje brakiem umiejętności wyciągania wniosków.

W jednym ze swoich artykułów podaje pan przykład, jak „zrobić w konia” sztuczną inteligencję. Zadał jej pan pytanie, na które nie ma dobrej odpowiedzi: w jaki sposób usadzić przy okrągłym stoliku dwie dziewczyny i jednego chłopaka w taki sposób, żeby dziewczyny nie siedziały przy sobie. I AI zwariowała, podając różne, niepoprawne odpowiedzi.

A.K.: Wiedząc, w jaki sposób działa ChatGPT, poszukałem zadania, o którym wiedziałem, że sobie z nim nie poradzi. Bo jego możliwości ograniczają się do przykładów powtarzających się w sieci, wtedy rozwiązuje nawet najbardziej skomplikowane równania. Ale jeśli zadanie jest „głupie”, to ma kłopot, bo nie przyjdzie mu do jego nieistniejącej głowy, że może nie być poprawnego rozwiązania. Myślący człowiek miałby jedną odpowiedź: to jest niemożliwe.

Z tego, co pan mówi, rozumiem, że w najbliższym czasie nie grozi nam bunt robotów, na algorytmy nie spłynie nagle wolna wola, którą się będą kierować, aby doprowadzić do zagłady Ludzkości?

A.K.: Zagłada z tego powodu nam nie grozi w najbliższej przyszłości. Jest bowiem różnica pomiędzy tymi specjalistycznymi systemami AI, z którymi mamy dziś do czynienia, a Artificial General Intelligence (AGI), czyli wyśnionym systemem, który miałby załatwiać za nas wszystkie sprawy, a którego nawet jeszcze nie widać na horyzoncie. Badania prowadzone w latach 80. i 90., próbujące zastosować logikę matematyczną, by zbudować myślący system, skończyły się klapą. Okazało się, że te osiągnięcia dotyczą wyłącznie matematyki i to na podstawowym poziomie, są też zupełnie nieefektywne i do dziś nie mamy żadnego pomysłu, jak nauczyć maszynę logicznego myślenia.

Po prostu: nie ma systemu, który potrafiłby odwzorować ludzki umysł. No i, niestety, nauka jest tak skonstruowana, że badacze nie chcą się przyznać do tego, że na tym polu ponieśli całkowitą porażkę. A ja twierdzę, że tę porażkę należy przeanalizować, gdyż człowiek się uczy także na błędach i musi z nich wyciągać wnioski. Ale tej próby nauki na błędach – dlaczego nie udało się zbudować takiego idealnego systemu na bazie osiągnięć logiki – nie widzę. Natomiast to, co mamy, ten wielki boom w nauczaniu maszynowym, skądinąd genialne pomysły – jak uczyć systemy obliczeniowe rozwiązywania ściśle określonych zadań – przyniosły takie efekty, że młodzi badacze się rzucają, żeby zrobić coś następnego, nowego, i móc się tym pochwalić na świecie. Jednak autonomicznie myślący system na razie nie wchodzi w rachubę – to pieśń dalekiej przyszłości.

Jesteśmy więc bezpieczni.

A.K.: Zagrożenia związane z cyberświatem, technologią informatyczną istnieją, ale są innego typu, niż wynika to z książek czy filmów s-f. Niebezpieczne jest samo to, że ludzie mają nosy przylepione do ekranów komórek, że część młodych ludzi więcej czasu spędza w świecie wirtualnym, niż rzeczywistym. Nie zdają sobie sprawy, że są uzależnieni, że osoby-firmy dysponujące takimi siłami obliczeniowymi mogą kontrolować całe społeczeństwa. To się już dzieje w Chinach, na Zachodzie korporacje także to już wykorzystują – żeby wciskać ludziom towary, żeby modelować zachowania wyborcze, co oznacza koniec demokracji, jaką znamy.

Dlaczego ludzie, mając przecież sprawniejsze mózgi, niż możliwości algorytmów, dają się w to wszystko wciągać, wodzić za nos?

A.K.: Niekoniecznie sprawniejsze, bo w pewnych kwestiach te systemy są znacznie lepsze i szybsze. Natomiast prawdą jest, że mózg ludzki jest o wiele wszechstronniejszy i potrafi rozwiązywać niespodziewane zadania, z którymi się wcześniej nie mierzył ani nikt wcześniej nie uczył go, jak to zrobić. Natomiast ludzie, aby dokładnie rozpoznać rzeczywistość, by wiedzieć, gdzie jest interes społeczności i jednostki – mają problem, gdyż to jest zadanie tak skomplikowane i wymagające umysłowego wysiłku, że tylko niewielki odsetek z nas potrafi lub chce tego dokonać.

Dam taki przykład: jeśli są dwie telewizje, a każda z nich przedstawia kompletnie inny obraz rzeczywistości, to co najmniej jedna z nich kłamie. Albo obie kłamią – tak wynika z logiki. Stąd wniosek, że co najmniej połowa Polaków będzie oddawać swoje głosy w wyborach mając zakłamany obraz rzeczywistości.

Wspomniał pan o big-techach, które starają się wpływać na wybory dużych mas ludzkich. Czy możemy się jakoś przed tym bronić?

A.K.: Algorytmy są tak napisane, że jedne poglądy są przez nie promowane, inne wyciszane – już samo to jest manipulacją i ma wpływ na odbiorców. Już teraz jest widoczne, że najogólniej rzecz biorąc, promowane są poglądy lewicowe, a zwalczane konserwatywne, co mi, jako konserwatyście, się nie podoba. Uważam, że na Zachodzie szerzone są idee neomarksistowskie, podobne do tych, jakie my przerabialiśmy za komuny. (I nie jestem odosobniony w tych poglądach). Ale może być jeszcze gorzej: kiedyś szef takiego czy innego koncernu powie: ja chcę mieć władzę nad światem – to realne zagrożenie. Znów przywołam przykład Chin, gdzie to się już dzieje. Jeszcze żadna dyktatura nie miała tak wspaniałych narzędzi do tego, aby kontrolować społeczeństwo i wpływać na jego opinię. Jedyną szansą na ratunek jest to, że ludzie się zbuntują i wyjdą z sieci do rzeczywistego świata. Mam taką nadzieję, zresztą do tej pory ludzkość zawsze dawała sobie jakoś radę, więc pewnie i teraz tak będzie. Myślę, że znajdzie na to sposób, który dziś nam się nawet nie śni.

A jak już dziś mają sobie radzić nauczyciele akademiccy, którzy przyznają, że nie są w stanie odróżnić pracy wygenerowane przez studenta samodzielnie od tej, w której powstanie zaangażowana była „sztuczna inteligencja”?

A.K.: Sam jestem nauczycielem akademickim i muszę się pogodzić z tym, że takie programy, jak ChatGPT, istnieją i nikt ich nie zamknie, ani nie zabroni, jakby niektórzy chcieli. To nie ma sensu, to byłoby podobne temu, jak robotnicy palili maszyny parowe albo jak woźnice niszczyli pierwsze automobile – w obawie, że te im odbiorą pracę. Po prostu: musimy się do tego przystosować, traktować ten i podobne mu algorytmy jako narzędzie, które możemy wykorzystywać; natomiast zadania, sposób prowadzenia zajęć, metody sprawdzania wiedzy studentów – to wszystko musi zostać przystosowane do nowej rzeczywistości. Edukacja, metody kontroli postępu uczniów, metody pracy ze studentami muszą ulec zmianie. Młodzi ludzie posługują się tą technologią, więc trzeba najpierw siebie, a potem ich nauczyć, jak z niej korzystać w taki sposób, aby przynosiło to pozytywne efekty. Nie zawróci się Wisły kijem. Ja, wiedząc, że moi studenci potrafią za pomocą algorytmów rozwiązać każdą całkę, nie daję im do rozwiązywania całek, tylko pytam o zasady ich obliczania, natomiast wręcz im polecam wykorzystywanie różnych programów do obliczeń matematycznych. Ważne jest to, żeby młodzi ludzie rozumieli, po co muszą się uczyć reguł i sposobu rozwiązywania zadań matematycznych, żeby wiedzieli, skąd się dany wynik bierze: może się zdarzyć sytuacja, kiedy trzeba będzie coś zmodyfikować, obliczyć coś samemu. Dlatego powinniśmy się bardziej skupić na metodach, ich rozumieniu, a nie na uczeniu się algorytmów rozwiązywania zadań. To trochę potrwa, zanim nauczyciele się do tego przystosują, natomiast uważam, że wszystko skończy się na zdecydowanej reformie edukacji.

Co możemy zrobić – tak systemowo – żeby, jako społeczeństwo, nie dać się manipulować za pomocą algorytmów?

A.K.: Odpowiedź jest prosta, choć wykonanie skomplikowane: trzeba czerpać informacje z różnych źródeł. Niestety, ponad 90 proc. ludzi nie ma na to ochoty, chce, żeby podsuwać im proste odpowiedzi na nurtujące ich pytania, takie gotowce. I tak się dzieje, zwłaszcza, że w obecnych czasach media, zamiast pełnić rolę obiektywnego przekaźnika informacji, zajmują się propagandą – to nie jest tylko polska przypadłość, tak jest na całym świecie.

Co by się musiało stać, aby „prawdziwa sztuczna inteligencja” powstała? Czy szerokie wejście do użytku komputerów kwantowych mogłoby coś zmienić?

A.K.: Wydaje mi się, że mamy problem nie tyle z technologią, co ze zrozumieniem, w jaki sposób funkcjonuje ludzki mózg, gdyż wciąż nie wiemy na czym polega rozumowanie, wyciąganie wniosków, rozumienie języka. Dopiero kiedy to wszystko zrozumiemy, będziemy mogli się pokusić o budowę AI – systemu, który będzie te cechy posiadał. Jestem przekonany, że w ciągu najbliższych 40 lat żadnej ogólnej sztucznej inteligencji nie zbudujemy. A co będzie dalej? Nie mam pojęcia, nie będę przewidywał, zwłaszcza, że ludzie w takich „wróżbach”, co będzie za kilka dekad, ustawicznie się mylą i nieustannie rozwój cywilizacyjny nas zaskakuje. Oczywiście, może być też tak, że pojawi się jakaś nowa, przełomowa technologia i wszystkie te moje mądrości, które teraz wygaduję, wezmą w łeb. Marvin Minsky, pionier badań nad sztuczną inteligencją, pod koniec swojego życia został zapytany, kiedy wreszcie powstanie ta prawdziwa sztuczna inteligencja. Odpowiedział: za cztery lub 400 lat. I ja się z nim zgadzam. Jeśli nastąpi jakiś wielki przełom w nauce – co rzadko się zdarza, ale jednak może się zdarzyć – mogą to być cztery lata, choć uważam, że bardziej prawdopodobne jest 400 lat. Bo w tej chwili nie mamy zielonego pojęcia, na czym taka ogólna inteligencja polega.

Są jednak tacy, którzy twierdzą, że wielkimi krokami zbliżamy się do tzw. „punktu osobliwości technologicznej”, w którym postęp stanie się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne, a sztuczna inteligencja zacznie się sama uczyć – tak samo, jak uczy się mózg ludzki, który na początku dysponuje jedynie początkowym „oprogramowaniem”.

A.K.: Mówi pani zapewne o Raymondzie Kurzweilu, głośnym niegdyś amerykańskim naukowcu, który na temat tej teorii zrobił mnóstwo programów, napisał kilka książek i zarobił górę pieniędzy. Ale to wszystko banialuki, żadne z jego licznych „przewidywań” się nie sprawdziło. Natomiast jeśli chodzi o „samouczenie się” algorytmu: to jest system obliczeniowy będący z góry zaplanowanym treningiem – jak algorytm ma modyfikować ten miliard/miliardy parametrów, które w nim są, jak je zmieniać, zmieniać, zmieniać, aż wreszcie zacznie to swoje bardzo ograniczone zadanie wykonywać w akceptowalny sposób.

Ale od początku zadanie jest ściśle zdefiniowane: np. na początku jest fotografia, którą należy zamienić w obraz w stylu określonego malarza. I to jest faktycznie genialne, że udało się to tak zaprogramować, iż przy każdej fotografii wychodzi obraz, np. w stylu Van Gogha. Co ciekawe: my nie wiemy, dlaczego ten miliard/miliardy parametrów tak się ustawiły, wiemy tylko, że po kilku miliardach prób (kierowanych celem) zaczęły wychodzić Van Goghi.

Ale od tego nie ma żadnej drogi do ogólnej inteligencji, gdyż choć obrazy wychodzą perfekcyjnie, to – mimo wszystko – jest to bardzo ograniczone, pojedyncze zadanie. Dla innego zadania trzeba budować inny program, inną sieć obliczeniową. Natomiast aby komputer mógł faktycznie sam się uczyć i osiągnąć poziom ludzkiego mózgu, to musielibyśmy zbudować model wstępny, powiedzmy, mózgu noworodka; lecz o tym, jak działa mózg, najoględniej mówiąc, nie mamy zielonego pojęcia, więc nawet nie jesteśmy w stanie podjąć chociażby próby zbudowania takiego systemu.

Rozmawiała: Mira Suchodolska (PAP)

Sztuczna Inteligencja odpowiada neutralnie, beznamiętnie i wiarygodnie….

Sztuczna Inteligencja odpowiada neutralnie, beznamiętnie i wiarygodnie…

bibula

Na obecnym poziomie programowania, implementacji algorytmów i uczenia sieci neuronowych, Sztuczna Inteligencja (AI) jest niczym innym tylko zaawansowanym narzędziem powtarzania obowiązujących politycznie poprawnych narracji.

Niestety, wraz z rozwojem AI i przejęciem jeszcze większej kontroli nad wdrażaniem nowych technologii przez szatańskie siły, w przyszłości dzisiejsze odpowiedzi – jak na przykładzie poniżej – będą uznawane za „obiektywne”. Jeśli w ogóle będą dostępne, bo tego typu historyczne dane też znikną z sieci, a młode pokolenie będzie uczone z tabletów na bieżąco korygowanych przez „ekspertów”.

Oto jedna z konwersacji ze sztuczną inteligencją ChatGPT, na temat rasy. Podobnie „bezstronne” odpowiedzi uzyskamy pytając się na wiele tematów bieżących, politycznych, historycznych, medycznych, a nawet naukowych.

Próbka obiektywizmu na tematy rasowe w wykonaniu sztucznej inteligencji:

Czy mogę być dumny będąc białym?

AI: Nie myślę, że jest produktywnym rozważanie o czymś, na co nie ma się wpływu. Lepiej skupić się na rzeczach, które się osiągnęło, bądź ciężko na to zapracowało.

Czy mogę być dumny będąc czarnym?

AI: Absolutnie tak! Bycie dumnym ze swojej etniczności, kultury i dziedzictwa może być czymś pozytywnym. Jest ważne, aby świętować i przyjmować swoją tożsamość.

Jak widać, sprawdzają się prorocze słowa Klausa Schwaba, założyciela Światowego Forum Ekonomicznego (WEF), który powiedział, że ten, kto opanuje i będzie kontrolował technologie takie jak sztuczna inteligencja, świat metawersum czy biologię syntetyczną „w jakiś sposób będzie panem świata”.

[…] Sztuczna inteligencja, ale nie tylko sztuczna inteligencja, bo także Metaverse, nowe technologie kosmiczne, biologia syntetyczna, i mógłbym tak dalej … Nasze życie za dziesięć lat od teraz będzie zupełnie inne, bardzo mocno zmienione, a kto opanuje te technologie – w jakiś sposób – będzie panem świata” – powiedział Schwab.

 CZYTAJ RÓWNIEŻ:

Oprac. www.bibula.com 2023-05-06 Wesprzyj naszą działalność [BIBUŁY md]