Fantomatyka obwodowa i centralna



 

Fantomatykę można ustawić w szeregu, na który składają się, znane z historii, sposoby mniej lub bardziej swoistego oddziaływania na mózg ludzki, przy użyciu bodźców obwodowych („prefantomatyka obwodowa”) lub działających ośrodkowo („prefantomatyka centralna”).

Do pierwszych należą wykształcone zwłaszcza w starych cywilizacjach rytuały wprowadzania ludzi w stan swoistej ekstazy za pośrednictwem bodźców motorycznych (rytuały taneczne na przykład), słuchowych (wpływanie „rozkołysujące” na procesy emocjonalne impulsami rytmicznymi —melodyczność bowiem jest w stosunku do rytmu ewolucyjnie młodsza), wizualnych itp. Pozwalały one wprowadzać grupy ludzi w stan przyćmienia indywidualnej świadomości, czy raczej zwężenia jej pola, jakie towarzyszy zawsze bardzo silnym emocjom. Takie szczytujące podniecenie zbiorowe kojarzy się współcześnie ze „zbiorowym rozpasaniem”, z orgią, ale w dawnych społecznościach było to raczej na poły mistyczne, na poły demoniczne zlewanie się indywidualnych przeżyć w stanie powszechnego podniecenia, w którym pierwiastki doznań seksualnych wcale nie dominowały, owszem, takie praktyki przyciągały raczej swą tajemniczością, tym, że wyzwalały ukryte w człowieku, nie znane z doświadczenia codziennego moce.

Do drugich należą praktyki zażywania substancji takich, jak meskalina, psylocybina, haszysz, alkohol, wywar z muchomorów, itp. Sprowadzają one, przez wpływ na chemizm mózgu, przeżycia subiektywnie podniosłe, rozkoszne, czasem apelujące raczej do estetycznych, to znów raczej do emocjonalnych stron ducha. Oba rodzaje takich praktyk zresztą nieraz kombinowano, aby uzyskać w ten sposób możliwą kulminację doznań; z fantomatyką czynności owe łączy aktywne wpływanie na wprowadzaną do mózgu informację, celem wywołania w nim stanu pożądanego nie przez to, że jest adekwatny jako regulator w stosunku do otoczenia, ale przez to, że stan taki daje rozkosz lub wstrząs (katharsis), więc po prostu silne i głębokie przeżycie. Czy owe dawne praktyki stanowiły przejawy zbiorowej manifestacji sadyzmu bądź masochizmu? Czy też były to przejawy życia religijnego? Albo prapoczątki tej „sztuki mas”, która nie oddziela twórców od odbiorców, lecz czyni wszystkich współtwórcami „dzieła”? Co nas to obchodzi? Sprawa ma pewien związek z klasyfikacją samej fantomatyki.

Psychoanalityczne szkoły skłonne są sprowadzać wszelkie ludzkie działania do elementarnych źródeł popędowych. Zarówno purytańska asceza, jak i najjaskrawsze wyuzdanie otrzymują wtedy etykietki „masochizmu” bądź „sadyzmu”, przy czym nie o to nawet idzie, że te twierdzenia są nieprawdziwe, ile o to, że ta prawda jest zbyt trywialna, aby mogła służyć nauce. Dyskusje na temat panseksualizmu, itp., są równie jałowe, jak byłyby nimi spory o to, czy akt seksualny jest przejawem słonecznej aktywności. W ostatniej instancji zapewne tak jest: ponieważ życie zawdzięcza swe powstanie promieniowaniu słonecznemu, a więc, przedstawiając długie łańcuchy przyczyn i skutków, idące od naszej gwiazdy ku skorupie Ziemi, a dalej poprzez ciągi rozwojowe ewolucji, można wykazać, jak deterioracja energetyczna kwantów promienistych w roślinach, stanowiących z kolei pożywienie dla zwierząt, do których należy też człowiek, doprowadza, koniec końców, na pewnym, niezmiernie już od energetycznego źródła odległym etapie, do aktów płciowych, dzięki którym cały ten proces w ogóle może być kontynuowany (bo bez rozmnażania organizmy by wszystkie wymarły). I podobnie można powiedzieć, że popęd płciowy sublimuje się w dzieło artystyczne. Kto tak mówi, wyraża metaforę raczej aniżeli prawdę — a w każdym razie nie jest to prawda naukowa. Nie wszystko jest bowiem prawdą naukową: ocean zmiennych nieistotnych jest większy od oceanu głupoty, a to już coś znaczy.

Gdy ciągi przyczynowo—skutkowe stają się dostatecznie długie, każda próba wiązania odległych od siebie etapów nabiera charakteru przenośni raczej aniżeli naukowego twierdzenia. Szczególnie już odnosi się to do systemów złożonych, typu sieci neuronowej, gdzie, ze względu na mnogie wewnętrzne powiązania i pętle sprzężeń, trudno ustalić, co jest skutkiem, a co przyczyną. Poszukiwanie „pierwszych przyczyn” w sieci tak złożonej, jak mózg ludzki, to aprioryzm czystej wody. Choć się przed tym psychiatra–psychoanalityk będzie bronił, z jego twierdzeń wynika, że srogi wychowawca dzieci i Kuba–rozpruwacz różnią się od siebie tak tylko, jak dwa samochody, z których pierwszy ma dużo lepsze hamulce od drugiego, i dlatego nie powoduje katastrof. Tak więc, działalność artystyczna, magiczna, religijna i rozrywkowa nie były przed setkami lat tak oddzielone, jak dziś. Fantomatykę nazywamy „techniką rozrywkową”, ze względu na jej genetyczne powiązania z takimi technikami dnia dzisiejszego, co nie przesądza o jej przyszłych, być może uniwersalistycznych aspiracjach.

W naszym systemie klasyfikacji fantomatyka obwodowa jest działaniem na mózg pośrednim, w tym sensie, że bodźce fantomatyzujące dostarczają tylko informacji o faktach; analogicznie bowiem działa rzeczywistość. Determinuje ona zawsze stany zewnętrzne, ale nie Wewnętrzne, ponieważ takie same konstatacje zmysłowe (że jest burza, że siedzimy na piramidzie), wszystko jedno, wywołane sztucznie czy naturalnie, u różnych ludzi powodują rozmaite uczucia, wzruszenia i reakcje.

Możliwa byłaby także „fantomatyka centralna”, tj. bezpośrednie drażnienie pewnych ośrodków mózgowych, sprawiających przyjemne uczucia bądź doznanie rozkoszy. Ośrodki te mieszczą się w śródmózgowiu i pniu mózgu. Bardzo blisko nich są też ośrodki wściekłości i trwogi (reakcji agresywno—obronnych). Do klasycznych już należy praca Oldsa i Milnera. Zwierzę (szczur) znajdowało się w klatce, miało chronicznie (tj. na stałe) implantowaną w mózg (w diencephalon) elektrodę i mogło drażnić elektrycznie owo miejsce, naciskając łapką rodzaj pedału, który zamykał kontakt. Pewne zwierzęta drażniły się nieustannie w ciągu 24 godzin, z częstością, dochodzącą do 8000 razy na godzinę, więc przeszło dwa razy na sekundę. Jeśli elektrodę wprowadzić nieco dalej, to szczury, podrażniwszy się raz, już nigdy tego więcej nie czynią. Jak formułuje to H. Magoun, można sądzić, że w tej okolicy mózgu znajdują się dwa przeciwstawne mechanizmy nerwowe, „nagrody” i „kary”. „Innymi słowy” — pyta on — „czy niebo i piekło są umiejscowione w mózgu zwierzęcia?”*

Jasper i Jacobsen wykryli podobne stosunki w mózgu człowieka, przy czym badany odczuwał, w zależności od miejsca drażnienia, już to niepokój i lęk, podobnie jak przed atakiem padaczkowym, już to uczucia przyjemne. „Fantomatyka centralna”, opierająca się na tych danych anatomo–fizjologicznych, byłaby czymś w rodzaju „onanizmu ośrodkowego”, aczkolwiek doznawane przy drażnieniu okolic hippokampa uczucia nie są tożsame z wyładowaniem seksualnym (orgazmem). Jesteśmy naturalnie skłonni potępić tego rodzaju „ataki szczęścia”, spowodowane zabiegiem elektrycznym, nie inaczej zresztą, jak zwykły samogwałt. Swoją drogą, cybernetycy, jak wspomniany już Staffrd Beer, zdają sobie sprawę z potrzeby wprowadzenia w obręb złożonego homeostatu mechanizmu nagrody i kary. Homeostat prosty (jak zbudowany z czterech elementów przez Ashby’ego) nie wymaga takiego specjalnego podsystemu; takiej „kontroli algedonicznej” wymagają tylko bardzo skomplikowane systemy o wielu stanach równowagi i wielu możliwych samoprogramujących się sposobach i celach działania.

Ponieważ ludzie nie przestają’ po dziś używać środków, wywołujących „stany przyjemne”, włączając w to i trucizny (alkaloidy, alkohole itp.), nie można wykluczyć powstania przyszłej „fantomatyki centralnej” tylko dlatego, ponieważ, jako „technika ułatwionej rozkoszy”, budzi moralne potępienie. Za „sztukę” w każdym razie tej odmiany fantomatyki uznać nie sposób, podobnie jak nie jest nią narkotyzowanie się czy picie alkoholu. Inna sprawa z fantomatyką obwodową, która w pewnych okolicznościach mogłaby się stać sztuką — a także polem wszelakich nadużyć.


Granice fantomatyki

 

Fantomatyka obwodowa — to wprowadzenie człowieka^ świat przeżyć, których nieautentyczności wykryć nie można. Powiedzieliśmy, że żadna cywilizacja nie może się „totalnie sfantomatyzować”, gdyż oznaczałoby to jej samobójstwo. Ale podobną reductio ad absurdum można rówież zastosować wobec telewizji. Cywilizacja, która by się podzieliła na dwie części: na tych, którzy program nadają, i na tych, którzy go u telewizorów odbierają, tak samo nie mogłaby istnieć. Fantomatyka zatem jest możliwa, a nawet prawdopodobna, jako technika rozrywkowa, ale nie jako droga, na którą wchodząc, społeczność może tak się oderwać od świata realnego, aby ulec „otorbieniu”, o jakim wspominaliśmy.

Fantomatyka zdaje się stanowić swoisty szczyt, ku któremu zmierzają liczne techniki rozrywkowe współczesności. Są nimi „wesołe miasteczka”, „iluzjony”, „pałace duchów”, wreszcie jednym wielkim, prymitywnym pseudofantomatem jest cały Disneyland. Oprócz takich technik, dozwolonych prawem, istnieją nielegalne (takie działania przedstawia np. J. Genet w Balkonie, gdzie miejscem „pseudofantomatyzacji” jest lupanar). Fantomatyka ma pewne dane, aby stać się sztuką. Przynajmniej tak się wydaje na pierwszy rzut oka. Mogłoby w niej zatem dojść do rozdwojenia, podobnego do sytuacji w filmie, ale także w innych dziedzinach sztuki (na produkcję artystyczni cenną i bezwartościową tandetę).

Niebezpieczeństwa fantomatyki są jednak niezrównanie większe ocd. tych, jakie przedstawia wyrodniejący, a czasem przekraczający nawet granicę norm społecznych, film (jako film pornograficzny na przykład). Ze względu bowiem na swe osobliwości fantomatyka daje przeżycie, którego „prywatności” dorównuje tylko sen. Jest to technika namiastkowego spełniania życzeń, dająca się łatwo nadużywać w aktach sprzecznych z tym, co jest społecznie dozwolone. Ktoś mógłby twierdzić, że ewentualne „rozpasanie fantomatyczne” nie może być społecznym zagrożeniem, ale że to właśnie coś jak „upust złej krwi”. Przecież „czynienie zła bliźniemu” w wizjach fantomatycznych nikomu nie szkodzi. Czy pociąga się kogoś do odpowiedzialności za najprzeraźliwszą treść snów? Czy nie lepiej, aby ktoś pobił, a nawet zamordował swego wroga w fantomacie, niźliby to miał zrobić w rzeczywistości? Aby, „pożądał żony bliźniego swego”, co może łatwo wnieść nieszczęście w jakieś spokojne stadło? Czy, jednym słowem, fantomatyka nie może wchłonąć, bez niczyjej krzywdy, ciemnych mocy, ukrytych w człowieku?

Postawa taka może spotkać się z przeciwną. Czyny przestępcze w wizji —powie antagonista — gotowe tylko zachęcić do powtórzenia ich w świecie realnym. Człowiekowi, jak wiemy, najbardziej zależy na tym, co nie jest dlań dostępne. „Przewrotność” taką spotykamy na każdym kroku. Nie ma ona żadnej podstawy racjonalnej. Co właściwie czyni miłośnik sztuki, gotowy oddać wszystko za autentycznego van Gogha, którego inaczej, aniżeli przy pomocy armii ekspertów, nie odróżni od doskonałej kopii? Poszukuje „autentyczności”. Tak więc nieautentyczność przeżyć fantomatycznych odbierałaby im wartość „buforową”, byłyby one raczej szkołą, systemem ćwiczącym w doskonaleniu czynów społecznie wzbronionych, aniżeli ich „pochłaniaczem”. Uczynienie zaś wizji fantomatycznej nieodróżnialną od rzeczywistości doprowadzi do nieobliczalnych następstw. Dokonane zostanie zabójstwo, po czym morderca będzie się bronił twierdzeniem, że w jego najgłębszym przekonaniu była to „tylko wizja fantomatyczna”. Poza tym niejeden człowiek tak zapłacze się w nierozróżnialnej prawdzie i fikcji życia, w nieroz—dzielnym subiektywnie świecie autentyku i ułudy, że nie znajdzie z takiego labiryntu wyjścia. To by dopiero były potężne „generatory frustracji” i psychicznego załamywania się.

Tak więc — przeciwko uznaniu fantomatyki za świat całkowitej — jak senna — swobody postępowania, w którym szały nihilistycznego rozpasania byłyby ograniczane tylko wyobraźnią, a nie sumieniem — przemawiają ważkie powody. Mogą, zapewne, powstać fantomaty nielegalne. To jednak problem policyjny raczej aniżeli cybernetyczny. Od cybernetyków mógłby ktoś wymagać, by w aparaturę wbudowali rodzaj „cenzury” (analogia do freudowskiej „cenzury snów”), powstrzymującej bieg wizji z chwilą przejawienia przez f antomatyzowanego tendencji agresywnych, sadystycznych itd.

Pozornie jest to problem czysto techniczny. Dla tego, kto umie zbudować fantomat, wprowadzenie weń takich ograniczeń nie będzie chyba zbyt trudne. W tym miejscu natykamy się jednak na dwie, zupełnie nieoczekiwane, konsekwencje postulowanych ograniczeń. Przedstawimy najpierw prostszą. Oto fantomatyzacja olbrzymiej większości dzieł sztuki byłaby niemożliwa: musiałyby znaleźć się poza granicą dozwolonego! Jeśli bohater wizji wyraża życzenie tak nawet zbożne, aby być Podbipiętą, nie unikniemy złego, bo jako Podbipiętą będzie ścinał po trzech Turków naraz, a znów jako Hamlet przekłuje Poloniusza niczym szczura. A gdyby — proszę wybaczyć ten przykład — chciał przeżyć męczeństwo jakiej świętej osoby, sprawa też miałaby dosyć wątpliwy posmak. Nie w tym tylko rzecz, że dzieł, w których nikt nikogo nie zabija i nie czyni nikomu złego, prawie nie ma (wliczając i bajki dla dzieci — jakże krwawe są bajki braci Grimm). Chodzi o to, że zakres regulacji bodźców, czyli „cenzura” fantomatyzatora, w ogóle nie sięga do właściwej sfery przeżyć fantomatyzowanego. Może pragnie być biczowany, przez potrzebę umartwienia, a może jest zwykłym biczownikiem–masochistą? Kontrolować można tylko bodźce wprowadzane do mózgu, ale nie to, co się w tym mózgu dzieje, co on przeżywa. Treść przeżyciowa pozostaje poza kontrolą (w tym wypadku to jakby minus, ale w zasadzie można powiedzieć, że to jednak bardzo szczęśliwe). Już ten nieliczny materiał eksperymentalny, jaki uzyskano podczas drażnienia różnych okolic mózgu ludzkiego (przy operacjach), wskazuje, że w każdym mózgu takie same czy podobne treści są utrwalane inaczej. Język, jakim przemawiają nasze nerwy do naszych mózgów, jest praktycznie tożsamy u wszystkich ludzi, natomiast język, czy raczej sposób kodowania wspomnień i kręgów skojarzeniowych, jest wysoce indywidualny. Łatwo się o tym przekonać, bo wspomnienia łączą się w sposób określony tylko dla jednostki. Tak np. ból może się komuś kojarzyć z cierpieniem wzniosłym i karą za przewiny, a komuś innemu może sprawić przewrotną uciechę. Tym samym dotarliśmy do granic fantomatyki: nie można bowiem przy jej pomocy bezpośrednio determinować postaw, sądów, wierzeń ani uczuć. Można kształtować treść niby—materialną przeżycia, ale nie towarzyszące mu sądy, myśli, doznania i skojarzenia. Dlatego też nazwaliśmy ową technikę „obwodową”. Zupełnie jak w życiu realnym dwaj ludzie mogą z dwu identycznych doświadczeń wyprowadzić zgoła odmienne, przeciwstawne diametralnie wnioski (w rozumieniu emocjonalnym oraz w światopoglądowym, a nie w sensie naukowego uogólnienia). Bo wprawdzie nihil est in intellectu, quod non fuerit prius in sensu (dla fantomatyki raczej in nervo), lecz stany nerwowych pobudzeń nie określają treści emocjonalno–intelektualnych jednoznacznie. Cybernetyk powie: stany „wejść” ani „wyjść” nie determinują jednoznacznie stanu znajdującej się między nimi sieci.

Jakżeż — spyta ktoś — nie determinują, a przecież powiedziało się, że fantomatyka umożliwia przeżycie „wszystkiego”, nawet tego, powiedzmy, że ktoś jest krokodylem czy rybą!

Krokodylem albo rekinem, tak, ale „na niby”, i to podwójnie. Po pierwsze na niby, bo to tylko wizja łudząca; o czym już wiemy. Po wtóre, bo aby naprawdę być krokodylem, trzeba mieć krokodyli, a nie ludzki mózg. Człowiek może być, w gruncie rzeczy, tylko sobą. Należy to jednak właściwie rozumieć. Jeśli urzędnik Banku Krajowego marzy o tym, aby zostać urzędnikiem Banku Inwestycyjnego, życzenie jego da się spełnić w sposób doskonały. Jeśli natomiast zapragnie zostać na dwie godziny Napoleonem Bonaparte, będzie nim (podczas wizji) tylko zewnętrznie: będzie widział, jeśli zajrzy do lustra, twarz Bonapartego, będzie miał wokół siebie „starą gwardię”, wiernych marszałków, itp., ale nie będzie mógł się z nimi rozmówić po francusku, jeżeli tego języka nie znał przedtem. I będzie też, w owej „bonapartycznej” sytuacji, przejawiał własne cechy charakteru, a nie postaci Napoleona, jakiego znamy z historii. Najwyżej będzie usiłował grać Napoleona, tj. udawać go, lepiej lub gorzej. I to samo dotyczy też krokodyla… Fantomatyka może sprawić, aby grafoman otrzymał, jak się rzekło, nagrodę Nobla, może mu cały świat, oczywiście w wizji, rzucić pod stopy, będą go wszyscy wielbić za wspaniałe poematy, ale on tych poematów i podczas wizji nie zdoła stworzyć, chyba że zgodzi się, aby mu je podrzucano do biurka…

Powiedzmy tak: im bardziej odległa jest, strukturą osobowości i czasem historycznym, postać, w którą ktoś pragnie się wcielić, od jego własnego charakteru i czasu, tym bardziej umowne, naiwne, prymitywne nawet formy przybierze jego postępowanie i cała akcja wizji. Bo aby zostać koronowanym na króla czy przyjmować posłów papieskich, trzeba znać cały dworski ceremoniał; osoby stworzone przez fantomatyzator mogą udawać, że nie widzą idiotycznych postępków odzianego w gronostaje urzędnika Banku Krajowego, więc się jego satysfakcja może i nie zmniejszy przez owe lapsusy, ale też widać stąd, jak cała ta sytuacja jest podszyta trywialnością, błaznowaniem. Z tego też względu trudno bardzo, aby fantomatyka mogła stać się sztuką pełnowartościową. Najpierw, nie można dla niej pisać scenariuszów, a najwyżej tylko ramowe’ szkice sytuacyjne; po wtóre, sztuka zakłada charaktery, tj. postaci mają je dane, podczas gdy klient fantomatu ma osobowość własną i nie będzie umiał zagrać wymaganej przez scenariusz roli, bo nie jest zawodowym aktorem. Dlatego fantomatyka może być jednak przede wszystkim rozrywką. Może to być swoisty „super–Orbis”, „super–cook” do podróży po Kosmosie możliwym i niemożliwym, poza obszerną dziedziną zastosowań bardzo cennych, ale nie mających ani ze sztuką, ani z rozrywką nic wspólnego.

Można przy jej pomocy stwarzać sytuacje treningowe i szkolące, najwyższej próby; można więc kształcić jej środkami w wykonywaniu wszystkich zawodów: lekarskiego, lotniczego, inżynieryjnego itp. Nie ma przy tym niebezpieczeństwa kraksy lotniczej, operacyjnego wypadku na stole, katastrofy wywołanej źle obliczoną konstrukcją. Po wtóre, pozwala ona badać reakcje psychologiczne, tu będzie zatem szczególnie cenna dla odsiewu adeptów astronautyki, itp. Metoda maskowania fantomatycznej wizji pozwoli na stworzenie warunków, w których badany nie będzie wiedział, czy naprawdę leci na Księżyc, czy też to tylko złudzenie. Zamaskowanie to jest potrzebne, ponieważ zachodzi konieczność poznania jego reakcji autentycznych, w obliczu awarii prawdziwej, a nie zmyślonej, kiedy każdemu łatwo przychodzi demonstrowanie „odwagi osobistej”.

„Testy fantomatyczne” pozwolą psychologom poznać lepiej reakcje ludzi w bardzo szerokim zakresie; poznać mechanizm powstawania paniki itp. Umożliwią, szybką selekcję wstępną kandydatów na różne studia i do różnych zawodów. Fantomatyka może okazać się niezastąpioną dla wszystkich tych, których warunki (placówka arktyczno–naukowa, lot kosmiczny, pobyt na stacji pozaziemskiej, a nawet gwiazdowa eksploracja) zmuszają do długiego przebywania w samotności i względnie ciasnej, zamkniętej przestrzeni. Dzięki niej lata podróży do jakiejś gwiazdy mogą okazać się pełne normalnych zajęć takich, jakim by członkowie załogi oddawali się na Ziemi, mogą to być lata podróżowania po ziemskich lądach i morzach, a nawet lata nauki (bo wszak i wykładów znakomitych profesorów można w wizji słuchać). Będzie fantomatyka prawdziwym błogosławieństwem dla niewidomych (oprócz tych, którzy cierpią na ślepotę centralną, tj. mają uszkodzony korowy ośrodek wzroku), którym otworzy cały, ogromny świat przeżyć wizualnych. Jak również i dla osób cierpiących, chorych, dla rekonwalescentów itd., itp. Także dla starców, pragnących przeżyć po raz drugi młodość; dla milionów, jednym słowem; jak z tego widać, być może jej rozrywkowe funkcje okażą się całkiem marginalne.

Wywoła ona zapewne i reakcje negatywne. Powstaną grupy zapiekłych jej przeciwników, wielbicieli autentyczności, którzy gardzić będą ową natychmiastowością spełniania życzeń, jaką stwarza fantomatyka. Myślę jednak, że dojdzie do rozsądnych kompromisów, ponieważ w końcu każda cywilizacja jest życiem ułatwionym i rozwój w znacznej mierze sprowadza się do poszerzania zakresu owych ułatwień. Fantomatyka może się też oczywiście stać prawdziwą groźbą, plagą społeczną, ale ta możliwość dotyczy wszelkich płodów technologii, choć nie w jednakim stopniu. Wiadomo, o ile mniej groźne są konsekwencje niewłaściwego użycia płodów technologii pary i elektryczności od płodów technologii atomowej. Ale to już jest problem dotyczący ustrojów społecznych i panujących politycznych stosunków, nic z f antomatyką, czy jakąkolwiek inną gałęzią techniki, nie mający wspólnego.


Cerebromatyka

 

Czy można wpływać na procesy mózgowe, więc na stany świadomości, z pominięciem dróg dostępu normalnych, t j. biologicznie wytworzonych? Bez wątpienia: przecież chemia farmaceutyczna dysponuje dzisiaj wielką ilością środków już to pobudzających rozmaicie, już to hamujących aktywność mózgową, a nawet są takie, które mogą kierować jej nurty w określone łożyska. Tak np. działanie wielu halucynogenów jest swoiste: jedne wywołują raczej „widzenia”, inne tylko nieokreślone stany oszołomienia bądź szczęśliwości. Czy możliwe byłoby jednak formowanie, kształtowanie owych procesów mózgowych zgodnie z naszymi zamierzeniami? Czy, jednym słowem, można tak „przerobić” mózg p. Smitha, aby stał się, bodaj czasowo, Napoleonem Bonaparte „prawdziwym” albo żeby wykazał rzeczywiste i fenomenalne talenty muzyczne, lub wreszcie został czcicielem ognia, przekonanym o niezbędności owego kultu?

Tu należy pierwej przeprowadzić wyraźne rozgraniczenia. Najpierw, powyższe „przeróbki” oznaczają bardzo rozmaite rzeczy. Wszystkie stanowią zmiany dynamicznej struktury sieci neuronowej mózgu, i obejmiemy je przeto łączną nazwą cerebromatyki. Fantomatyka dostarcza mózgowi „fałszywej informacji”, cerebromatyka — „fałszuje”, tj. „przerabia” sam ów mózg. Dalej, co innego jest w daną osobowość wprawić jedną cechę, np. talent muzyczny (zapewne zmieni to osobowość, ale można uznać, że będzie tą samą, a tylko przeinaczoną nieco), a znów co innego — z pana Smitha zrobić Napoleona.

Tak krawiec kraje, jak mu sukna staje. W tym sensie, odłączenie czynnościowe pewnych części mózgu (płatów czołowych na przykład) może uczynić człowieka dojrzałego infantylem, podobnym w reakcjach do dziecka, z jego ograniczeniem intelektu i chwiejnością emocjonalną. Można też znieść hamujące działanie ośrodków ciemieniowych, co wyzwoli osobniczą agresywność (robi to alkohol, zwłaszcza u tych, którzy są do agresji skłonni). Innymi słowy, daną osobnicze aktywność całej sieci neuronowej można w pewnych granicach przesuwać albo zacieśniać. Nie można natomiast cech nieobecnych psychice przydać: we właściwym rozumieniu. Dorosły był dzieckiem, jego płaty czołowe posiadały wówczas niezmyelinizowane włókna, stąd, w pewnym sensie, niejakie podobieństwo dziecka do chorego z zanikiem tych płatów. Można zatem dorosłego „cofnąć” w dziecko, chociaż nie w pełni to możliwe, bo pozostałe części jego mózgu są „niedziecinne”, ma też on taką ilość wspomnień i doświadczenia, jakiej dziecku brak. Można „zdjąć hamulce” z takiej czy innej funkcji napędowej i zrobić z człowieka normalnego — żarłoka, erotomana itp. Osobowość może więc w ten sposób zostać sprowadzona z normalnego wyważenia, z pierwotnego kursu: ale to wszystko. Zabiegami takimi p. Smitha w Napoleona się nie przerobi.

Tu niezbędny jest nawias. Otóż powiedzieliśmy wprawdzie, że stany wejść i wyjść nie determinują jednoznacznie stanów świadomości, co widać choćby po tym, że w analogicznym środowisku powstają różne postawy światopoglądowe, jako że tę samą informację można rozmaicie interpretować, nie wynika jednak z tego jakaś niezawisłość świadomości od treści w nią wprowadzanych. Jeśli ktoś (przykład uproszczony) wierzy, że „ludzie są dobrzy”, a my, już to fantomatycznymi wizjami, już to dzięki odpowiedniej inscenizacji wydarzeń, będziemy go przez dłuższy czas nieustannie zderzać z ludzką nikczemnością i podłością, przekonanie o zacności naszego rodzaju może ów człowiek porzucić. A więc i fantomatyka obwodowa może odpowiednimi zabiegami wpłynąć na zmianę sądów, nawet mocno już zakorzenionych. Im więcej doświadczeń ma za sobą człowiek, tym trudniej o taką zmianę. Szczególnie zaś trudno jest podważyć sądy metafizyczne, ze względu na wspomniane i właściwe ich obecności blokowanie informacji z ich strukturą sprzecznej.

Inna sprawa z cerebromatycznym „kształtowaniem duszy” bezpośrednim, tj. wpływaniem na procesy psychiczne z pominięciem dróg nerwowych dosyłowych, a mianowicie przez odmienne modelowanie ich neuronowego podłoża.

Mózg nie jest czymś jednolitym, niepodzielnym. I on posiada liczne „podsystemy”, połączone z sobą, przy czym połączenia te bywają fizjologicznie zmienne, to znaczy, że nie zawsze te same części mózgu są „wejściami” dla bodźców, nadchodzących z innych jego części, i na odwrót. Na tym właśnie polega uniwersalna plastyczność i modelująca dynamika sieci neuronowej, że potencjalnie zdolna jest ona łączyć się lub rozłączać, przez co z takich kombinacji powstają różne podsystemy. Kto umie jeździć na rowerze, posiada określone pogotowie „utorowanych” takich połączeń, automatycznie „zaskakujące” w całość działającą, gdy dosiędzie roweru. Nauczyć kogoś jazdy na rowerze z pominięciem drogi normalnej, tj. określonych ćwiczeń, a tylko przez bezpośrednie wprowadzenie w jego mózg właściwej informacji, nie jest sprawą prostą nawet w teorii.

Możliwe są tu dwa podejścia. Pierwsze jest „genetyczne”: należy uczynić umiejętność jazdy na rowerze (albo znajomość Koranu lub skoków z trampoliny itp.) własnością wrodzoną, tj. zaprogramować ją już w genotypie jaja, z którego się osobnik i jego mózg rozwinie. Można by w ten sposób dojść do sytuacji, w której właściwie niczego już się uczyć nie trzeba, bo wszelka wiedza teoretyczna i praktyczna jest „wdrażana” chromosomom przed rozwojem płodowym, a przez to staje się dziedziczna. Wymagałoby to co prawda bardzo poważnego zwiększenia ilości informacji genotypowej, skomplikowania struktury jądra, itd. Być może też, genotyp nie byłby zdolny pomieścić określonego nadmiaru informacji powyżej pewnej granicy — na ten temat nic nam nie wiadomo. Ale i taką możliwość trzeba mieć na oku. Wtedy należałoby się ograniczyć do genotypowego perfekcjonowania takich cech, które przynajmniej ułatwiają naukę, jeśli jej nie są zdolne zastąpić. Byłoby to zapewne dość osobliwe, gdyby udało się uczynić całokształt ludzkiej wiedzy dziedzicznym tak, aby już noworodek przychodził na świat ze znajomością kilkunastu języków oraz teorii kwantów. Nie musiałoby też to wcale oznaczać, że mówiłby natychmiast „językami ludzkimi i anielskimi” albo z kołyski prawił nam o spinach i momentach kwadrupolowych; określone wiadomości tak samo rozwinęłyby się w jego mózgu z upływem lat, jak się rozwijać będzie jego organizm, rosnąc, przechodząc rozmaite przemiany w trakcie dojrzewania.

To znów nasuwa obraz świata, w którym dzieci „programuje się”, i to tak, żeby umiejętnościom i wiedzy dziedzicznej (czy raczej — zakomponowanej i utrwalonej w chromosomach jaja) towarzyszyło zamiłowanie do robienia tego, na co owa wiedza dziedziczna i umiejętności pozwalają (świat nieco podobny do Huxleyowskiego). Oczywiście i tu możliwe są rozmaite nadużycia i tendencje do „produkowania typów ludzkich różnej jakości”, tj. umysłów „wyższych” i „niższych”. To jest możliwe, ale możliwe też jest zatrucie atmosfery całej Ziemi tak, by jej biosfera zgorzała w ciągu godzin. Jak wiadomo, wiele jest rzeczy możliwych, których się mimo to nie realizuje. W bardzo wczesnej fazie nowego zwrotu technologii, albo w fazie „przeczuwania” nadchodzącej zmiany, powszechne są tendencje do absolutyzowania tej nowości, przyjmowania, że ona odtąd zapanuje niepodzielnie nad całą ludzką działalnością. Tak było w minionych wiekach, tak było niedawno z atomistyką (gdy sądzono, że w ciągu paru lat elektrownie i kominy ustąpią niemal wszędzie miejsca stosom atomowym). Ta wyolbrzymiająca prostolinijność przewidywania na ogół się nie realizuje. Tak więc i programowanie dziedziczności można uprawiać w sposób tyleż rozumny, co umiarkowany; wrodzona znajomość wyższej matematyki na pewno nie stoi w sprzeczności z godnością ludzką.

Drugie podejście, cerebromatyczne, oznacza przekształcenie mózgu już dojrzałego. Mówiliśmy wyżej o programowaniu informacji naukowej raczej, aniżeli o kształtowaniu osobowości; rozumie się, że genetycznie (chromosomowo) o wiele łatwiej wymodelować pewien typ osobowości aniżeli pewną wiedzę. Ilość bowiem informacji genotypowej w zasadzie nie bardzo się zmienia, niezależnie od tego, czy „projektujemy” przyszłego p. Smitha jako choleryka, czy jako flegmatyka. Co się tyczy cerebromatyki, to zmienić osobowość dojrzałą na nową lub wprowadzić do mózgu wiedzę w nim nieobecną zabiegiem na sieci neuronowej jest bardzo trudno w obu wypadkach. Wbrew pozorom, podejście to stwarza trudności do pokonania większe aniżeli „genetyczno—embrionalne”. Łatwiej jest zaprogramować rozwój z góry, aniżeli w istotny sposób przekształcić dynamikę systemu w pełni już uformowanego.

Trudność ma dwa oblicza: techniczne i ontologiczne. Trudno jest wprowadzić w sieć neuronową informację o tym, jak jeździć na rowerze. Bardzo trudno jest „dorobić” czterdziestoletniemu p. Smithowi „nagły” talent matematyczny. Wymagałoby to zabiegów chirurgicznych, cybernetycznych, jakiegoś otwierania kręgów (obwodów) neuronowych i włączania w nie „wstawek” czy to biologicznych, czy elektronowych albo jakichś innych. Zadanie byłoby technicznie niewdzięczne w najwyższym stopniu. Trzeba by przekonstruować jeśli nie miliardy, to przynajmniej dziesiątki milionów połączeń. A chociaż według Lorente de No nie ma więcej niż 10 000 głównych neuronowych (dużych) obwodów krążenia impulsów w korze, należy się obawiać, że pewne znaczenie (zarówno jako podłoże myśli, jak też i jako element funkcjonalny) ma każdy obwód neuronowy jako całość. Tak więc otwarcie go i „przysztukowanie” wstawki jest zupełnym zniszczeniem pierwotnego znaczenia subiektywnego i obiektywnego, a nie tylko „dodatkiem organizacyjno–informacyjnym”.

Ale chyba dość tych szczegółów, schodzą bowiem na drugi, na trzeci nawet plan wobec problematyki ontologiczne j, jaką te zabiegi powołują do istnienia. Gdy chcemy dynamomaszynę przerobić na pompę odśrodkową, musimy tak wiele jej części odrzucić, tak wiele przydać nowych, tak przekonstruować całość, że zbudowana pompa nie będzie już „byłą dynamomaszyną”, a tylko po prostu pompą i niczym więcej. Analogicznie, „przeróbki” mające uczynić p. Smitha Napoleonem lub Newtonem mogą nam dać w efekcie całkiem nową osobowość, z poprzednią związaną tak już luźno, że właściwie orzec trzeba morderstwo. Unicestwiliśmy bowiem jednego człowieka i stworzyli, w jego poprzedniej skórze, nowego. Przy tym różnice są zawsze płynne i wyraźnej granicy między „cerebromatyką żabojeża” a „przekształcającą pewne cechy osobowości kontynuowanej” przeprowadzić się nie da. Zabieg tak brutalny, jak odcięcie płatów czołowych (lobotomia), powoduje znaczne zmiany charakteru, osobowości, życia popędowego i emocjonalnego. W związku z tym lobotomię uznano za zabieg niedozwolony w licznych krajach (m.in. i u nas). Zabiegi takie są tym groźniejsze, że osoba operowana subiektywnie nie zdaje sobie zazwyczaj sprawy ze zmian, jakie w niej zaszły. Co prawda, dodajmy na pociechę, wiedza nasza opiera się na zabiegach wyłącznie okaleczających.

Czy jest jednak możliwe stworzenie takiej „przystawki”, która jako nośnik „talentu muzycznego”, „podłączona” do mózgu p. Smitha, wzbogaci jego osobowość, lecz jej nie zniszczy? Zagadnienia tego arbitralnie i raz na zawsze nie rozstrzygniemy. Najgorzej tu z kryteriami działania: bo cerebromatyk, który obiecuje postępować „ostrożnie”, jest jak ten, kto ujmuje po kilka źdźbeł siana ze stogu. Różnica za każdym razem mikroskopijna, ale po jakimś czasie stóg siana przestanie istnieć — któż może powiedzieć, kiedy się to stało! Dlatego cerebromatyk, który chce „przerobić” Smitha w Beethovena drobniutkimi kroczkami, jest tak samo niebezpieczny jak ten, który zamyśla taką zmianę przeprowadzić za jednym zamachem.

Uprościliśmy powyżej techniczną stronę zagadnienia, jako że wkład różnych części mózgu w kreację osobowości jest nierównomierny. Wpływ ośrodków o ścisłej lokalizacji (analizatorów korowych), jak pole wzrokowe czy słuchowe, jest na konstytucję osobowości minimalny. Na odwrót, drobne zwoje nadorbitalne oraz węzły wzgórzowe (talamiczne) wykazują tu supremację nad innymi obszarami mózgu. Ale nie ma to istotnego wpływu na rezultat naszych rozważań. Etyka, a nie „problemy materiałowe”, każe odrzucić propozycje „przeróbek duszy”, w których trakcie osobowość dana, choćby i przygłupia, ulec miała zmianie na przemiłą może i wielce utalentowaną, lecz inną. „Technologia duszy”, zarówno w swej postaci współczesnej , jak i przyszłej, styka się tu z problemem niepowtarzalności subiektywnej jednostkowego istnienia, bynajmniej nie jako tajemniczego zjawiska, którego nie da się wyjaśnić, a tylko jako dynamicznego toru układowego. Orzeczenie, jakie odchylenia owego toru należy uznać za całkowitą przemianę osobowości, a jakie tylko za „korekcje” osobowości, nie naruszające kontynuowania jej tożsamości, orzeczenie takie jest kwestią rozstrzygnięcia arbitralnego, to jest czysto umownego. Innymi słowy, „cerebromatyka” może zabijać ludzi niepostrzeżenie, gdyż zamiast trupa, dowodnie świadczącego o dokonanej zbrodni, powstaje inny człowiek. Samo „zabójstwo” można rozłożyć na dowolnie wielką ilość etapów, co jeszcze bardziej utrudnia wykrycie, na równi z osądzeniem, podobnych operacji.

Tym samym wyjaśniliśmy, że pan Smith uczyni rozsądnie, jeśli nie będzie się domagał „przerobienia” na Casanovę bądź wielkiego wynalazcę, ponieważ w rezultacie świat może otrzyma niezwykłego człowieka, ale pan Smith utraci to, na czym najbardziej winno mu zależeć, to jest samego siebie*.

Można zauważyć, że życie ludzkie, od urodzenia przez dojrzałość, jest ciągłym „umieraniem” kolejnych osobowości — dwuletniego pędraka, sześcioletniego swawolnika, dwunastoletniego wyrostka, itd., aż po daleką od tamtych osobowość wieku dorosłego. I że jeśli ktoś sobie będzie życzył przeróbki duchowej, która przysporzy społeczeństwu osoby bardziej cennej, niż nią jest petent dotychczas, to czemu by właściwie miało mu się odmówić?

Zapewne: cywilizację, w której zabiegi cerebromatyczne są dozwolone, bardzo łatwo sobie wyobrazić, jak również taką, w której np. przymusowej cerebromatyzacji personoklastycznej poddaje się przestępców. Ale trzeba wyraźnie powiedzieć, że są to procesy zniszczenia; „przesiadanie się” z osobowości w osobowość nie jest możliwe ani jako proces odwracalny, ani jako proces nieodwracalny, ponieważ takie metamorfozy oddziela od siebie strefa zagłady psychicznej, równoznaczna z ustaniem indywidualnego istnienia. Tak zatem można być tylko albo sobą, albo nikim — z dwoma zastrzeżeniami, o których osobno*.


Teletaksja i fantoplikacja

 

Kategoryczne twierdzenie, jakim zamknęliśmy poprzedni rozdział, że można być tylko albo sobą, albo nikim, nie sprzecza się z potencjami fantomatyki. Wiemy już, że p. Smith, który „przeżywa” w fantomacie żywot Nelsona, gra, tj. udaje tylko znakomitego marynarza. Jedynie wyjątkowa naiwność mogłaby go skłonić do uwierzenia, iż w samej rzeczy jest wybitną postacią historyczną. Zapewne, gdyby w świecie f automatycznym żył dostatecznie długo, to, że rozkazy jego, jako admirała, wykonywane są bez szemrania, w końcu wywarłoby wpływ na jego psychikę i można by się obawiać, że powróciwszy do biura, poleciłby, choćby z roztargnienia tylko, aby głównego prokurenta powieszono na rei f okmasztu. Jeśliby zaś w świat fantomatyczny wszedł jako dziecko, czy chłopiec, mógłby się w sytuację do tego stopnia wcielić, że powrót do zwykłej rzeczywistości sprawiłby mu największą trudność. Kto wie, czy nie okazałby się nawet niemożliwy. Pewne jest, że noworodek, od pierwszych tygodni życia fantomatyzowany w „jaskiniowej wizji”, może zostać dojrzałym dzikim, i wtedy już o żadnym ucywilizowaniu go nie byłoby mowy. Mówię to nie, aby bawić paradoksami czy żartować, lecz by wskazać, iż osobowość nie jest czymś danym, fantomatyka zaś — odpowiednikiem zwykłego rojenia na jawie, tyle że podkolorowanego i uplastycznionego. Namiastkowość jej może fantomatyzowany ocenić wyłącznie przez zestawienie z rzeczywistością. Trwała fantomatyzacja taką ocenę rzecz prosta udaremnia i musi prowadzić do trwałych zmian, jakie by w rzeczywistym życiu jednostki nigdy nie powstały. Jest to zresztą szczególny wypadek ogólnego problemu przystosowania do określonego środowiska i czasu.

Wspomnieliśmy, jak istotny szkopuł stanowi ta właściwość wizji fantomatycznej, że jest ona nieautentyczna, że przedstawia realizowany biotechnicznie eskapizm. Cybernetyka proponuje dwa sposoby przezwyciężenia owej nieautentyczności przeżyć. Nazwiemy je (bo w końcu trzeba je jakoś nazwać) teletaksją i fantoplikacją.

Teletaksja oznacza nie „krótkie zwarcie”, tj. podłączenie człowieka do fingującej rzeczywistość maszyny, która go od świata oddziela, ale do takiej maszyny, która jest tylko ogniwem pośrednim pomiędzy nim a światem rzeczywistym. Prototypem „teletaktora” jest np. luneta astronomiczna czy aparat telewizyjny. Prototypy to jednak nad wyraz niedoskonałe. Teletaksja umożliwia takie „podłączenie” człowieka do wybranego dowolnie wycinka rzeczywistości, żeby przeżywał ją tak, jakby naprawdę się w nim znajdował. Technicznie problem można rozwiązać na różne sposoby. Można np. konstruować dokładne modele człowieka, których wszystkie receptory (wzroku, słuchu, węchu, równowagi, czucia, etc.) podłączone są odpowiednio do jego dróg czuciowych, i to samo dotyczy całokształtu nerwów motorycznych. „Podłączony domózgowo” sobowtór, czy też „zdalnik”, może np. przebywać w kraterze wulkanu, na szczycie Mount Everestu, czy w kosmicznej przestrzeni okołoziemskiej, albo prowadzić konwersację towarzyską w Londynie, podczas gdy osobnik nim zawiadujący przez cały czas przebywa w Warszawie. Co prawda, skończona szybkość sygnałów łączności, w tym wypadku radiowych, uniemożliwia zbytnie oddalanie „alter ego” od człowieka, który nim zawiaduje. Już poruszanie się po powierzchni Księżyca wywoła wyraźny efekt opóźnienia reakcji, bo sygnał potrzebuje około sekundy, aby dotrzeć do naszego satelity, i tyle samo pochłania droga powrotna. Tak zatem w praktyce osoba zawiadująca „zdalnikiem” nie może przebywać odeń w odległości większej niż kilka czy najwyżej kilkanaście tysięcy kilometrów. Złudzenie obecności na Księżycu czy w wulkanie będzie doskonałe, pozbawione tylko potencjalnych niebezpieczeństw, ponieważ unicestwienie „zdalnika”, np. skutkiem jakiejś katastrofy, jak strzaskanie przez lawinę kamienną, wywoła u podłączonego człowieka tylko nagłe urwanie się wizji, ale zdrowiu w niczym nie zagraża. Taki system łączności będzie pewno szczególnie użyteczny przy eksploracji ciał niebieskich, a w ogóle może się okazać przydatny w licznych sytuacjach, nie mających z rozrywką nic wspólnego. Zewnętrzne podobieństwo zdalnika do zawiadującej nim osoby nie jest, rozumie się, konieczne, i nawet zbędne byłoby przy eksploracji Kosmosu; może ono być jedynie pożądane w przypadkach szczególnych „turystyki teletaktycznej”, o ile złudzenie ma się stać całkiem pełne. W przeciwnym razie człowiek będzie wprawdzie widział rozprażone słońcem białe skały księżyca i czuł jego kamienie pod stopami, ale podniósłszy do oczu rękę, zobaczy naturalnie kończynę zdalnika, w lustrze zaś ujrzałby nie siebie, człowieka, lecz jego —automat, maszynę, co, być może, szokowałoby liczne osoby: bo w ten sposób jest się jak gdyby nie tylko przeniesionym w inną sytuację, ale razem z poprzednim miejscem pobytu pozornie utraciło się także i własne ciało.

Od teletaksji niedaleka już droga do fantoplikacji, która oznacza po prostu podłączenie dróg nerwowych jednej osoby do takich samych dróg osoby innej. Dzięki takiemu zabiegowi, w odpowiednio urządzonym „fantoplikacie”, tysiąc osób naraz może „brać udział” w biegu maratońskim, patrzeć oczami biegacza, odczuwać jego ruchy jako swoje, jednym słowem, identyfikować swe doznania z jego doznaniami w daleko idący sposób. Nazwa bierze się stąd, że w transmisji takiej brać może udział naraz dowolna ilość osób (fantoplikacja). Metoda ta jest jednak przekazem informacji tylko jednokierunkowym, ponieważ „podłączeni” do biegacza nie mogą wszyscy naraz zawiadywać jego ruchami. Zasada tego procederu jest już znana. Właśnie w taki sposób przesyłają odpowiednie mikronadajniki, umieszczone w różnych miejscach ciała astronautów, informację o tym, co zachodzi w ich sercach, w ich krwi, itd., uczonym ziemskim. Zagadnieniami podobnymi (naśladowanie działania pewnych receptorów żywych organizmów środkami technicznymi, podłączanie bezpośrednie mózgu lub nerwów do aparatur wykonawczych z pominięciem pewnych normalnych ogniw, np. ręki) zajmuje się nowa gałąź nauki, bionika. Powiedzieliśmy, że przesiadanie się z osobowości w osobowość nie jest możliwe, z dwoma zastrzeżeniami. Oczywiście, ani teletaksją, ani fantoplikacja się z tym nie wiążą, ponieważ stanowią jedynie odmienne sposoby „podłączania mózgu” do określonych „zbiorników informacji”. Nas natomiast interesuje najbardziej szansa podłączenia jednego mózgu do innego i ewentualnej konsekwencji takich zabiegów, tj. „przeskakiwania” świadomości w świadomość, albo też „zespalania się” ich, dwóch, czy też większej liczby, albo wreszcie problem takiej metamorfozy indywidualnej świadomości, która nie byłaby równoznaczna z zagładą indywidualnego istnienia. Jeśli uznamy, że urzędnik Banku Krajowego, p. Smith, znany nam od dziecka, przejawiający takie to właściwości (które odpowiadają takim to cechom dynamicznym neuronowej sieci jego mózgu), i osoba, całkowicie do niego niepodobna, która ma odmienne usposobienie, inne zainteresowania i talenty, ale powiada, iż jest panem Smithem, który przeszedł operację „włączenia w mózg” pewnego „wzmacniacza” niektórych słabo rozwiniętych cech umysłowych — jeżeli uznamy, że te dwie osoby to dwaj różni ludzie, wówczas cały problem upada, reinkarnacje czy „duchowe przesiadki” są niemożliwością, pan Smith zaś nowy tylko sądzi, że jest dawnym panem Smith, urzędnikiem bankowym: ale to mu się tak tylko wydaje.

Jeżeli natomiast, wysłuchawszy go i przekonawszy się, że posiada doskonałą pamięć przeszłego życia, od lat dziecięcych, jak również — pamięć o powziętej decyzji poddania się zabiegowi, a wreszcie — zdolność porównania dawnych swych (utraconych) cech psychicznych z nowymi — uznamy, że to jest ta sama osoba — wówczas problem okaże się w pełni urzeczywistnialny. To jest pierwsze nasze zastrzeżenie: w zależności od przyjętych wstępnie kryteriów albo uznamy, albo nie uznamy tożsamości obu panów Smith (tj. p. Smitha sprzed operacji, czasu T1, i p. Smitha z czasu T2, po operacji).

Cybernetyka dysponuje jednak, niestety, możliwościami zgoła nieograniczonymi. Pojawia się jakaś osoba, którą rozpoznajemy jako naszego znajomego, p. Smitha. Rozmawiamy z nim długo i przekonujemy się, że to jest nasz stary, absolutnie nie zmieniony znajomy, że doskonale pamięta nas i swoje życie. Jest takuteńki, jaki był zawsze. Za czym przychodzi pewien demoniczny cybernetyk i oświadcza nam, iż rzekomy pan Smith ,,w istocie” jest całkiem innym człowiekiem, którego on „przerobił” na Smitha, przekształciwszy odpowiednio jego ciało i jego mózg, obdarzając ten ostatni całkowitą sumą pamięci pana Smitha, który w trakcie zabiegów owych (sporządzania inwentarza pamięci) niestety zmarł. Cybernetyk skłonny jest nawet udostępnić nam, dla celów badawczych, zwłoki naszego znajomego. Otóż, kryminalny aspekt sprawy nie interesuje nas tak bardzo, jak ontologiczny. W pierwszym wypadku ta sama osoba została „przerobiona” na inną — ale zachowała pamięć swojej przeszłości pierwotnej. W drugim wypadku całkiem nowa osoba „imituje” pod każdym względem pana Smitha, „nie będąc nim”, bo pan Smith leży w grobie.

Jeśli za kryterium kontynuacji przyjmiemy ciągłość istnienia osobniczego, bez względu na te dokonywane przeróbki (powołując się np. na „fizjologiczne przeróbki niemowlęcia w Einsteina”), to pierwszy pan Smith (z pierwszego przykładu) jest prawdziwy.

Jeżeli za takie kryterium przyjmujemy niezmienność osobowości, to „prawdziwy” jest ten drugi pan Smith. Pierwotny bowiem ma już „całkiem inną osobowość”, zajmuje się alpinistyką, hoduje kaktusy, zapisał się do konserwatorium i wykłada w Oxfordzie Ewolucję Naturalną, podczas kiedy drugi jest dalej i bez zmian urzędnikiem bankowym i „w ogóle w niczym się nie zmienił”.

Jednym słowem, problem tożsamości lub nietożsamości indywiduum okazuje się względny i zależy od przyjętych kryteriów różnicowania. Cywilizacja cybernetycznie prymitywna na szczęście takimi paradoksami parać się nie musi. Cywilizacja, która już w pełni opanowała imitologię, fantomologię (obejmującą, jak można już teraz powiedzieć, fantomatykę obwodową i centralną, fantoplikację, teletaksję i cerebromatykę) i która z zapałem uprawia nawet pantokreatykę — taka cywilizacja musi problemy z zakresu „teorii względności osobowości” rozstrzygać. Rozstrzygnięcia nie mogą być absolutne, ponieważ absolutnych, niezmienniczych kryteriów brak. Tam, gdzie transformacja osobowości jest do urzeczywistnienia, tożsamość jednostkowa ze zjawiska do zbadania staje się zjawiskiem do zdefiniowania.


Osobowość i informacja

 

Bodaj Norbert Wiener pierwszy wypowiedział myśl o teoretycznej możliwości „przetelegrafowania” człowieka, jako niezwykłego środka komunikacji, stanowiącego jedno z zastosowań technik cybernetycznych. W samej rzeczy, czym innym jest człowiek lub dowolny przedmiot materialny, jeśli nie sumą pewnej informacji, którą, przekodowawszy na język sygnałów radiowych bądź telegraficznych, można przesłać na dowolną odległość? Nie bez słuszności można by rzec, iż wszystko, co istnieje, jest informacją. Jest nią zarówno książka, jak gliniany dzban, obraz , jak i zjawiska psychiczne, bo pamięć, ta podstawa ciągłości subiektywnego trwania, stanowi zapis informacyjny w mózgu, tak że zatarcie owego zapisu wskutek urazu bądź choroby może zgładzić całość wspomnień. Imitologia oznacza naśladowanie zjawisk w oparciu o niezbędny zasób informacji. Nie twierdzimy, rozumie się, jakoby istniała wyłącznie informacja. Gliniany dzban możemy zidentyfikować, posiadając pełny protokół odnoszącej się doń (do jego składu chemicznego, lego topologii, wymiarów etc.) informacji. Protokół ów, albo, jeśli wolimy, „rysopis”, jest o tyle identyczny z dzbanem, że w oparciu o ów zapis możemy dzban odtworzyć, przy czym, jeżeli będziemy dysponowali urządzeniem dostatecznie precyzyjnym (syntetyzatorem atomowym na przykład), sporządzona tak „kopia” nie da się odróżnić od oryginału żadnym już badaniem. Jeżeli analogicznie postąpimy np. z płótnem Rembrandta, to zatarciu ulegnie w ogóle potocznie rozumiana różnica między „kopią” a „oryginałem”, jako że jedno nie będzie do odróżnienia od drugiego. Proceder takiego typu zakłada przekodowanie informacji, przedstawianej przez dzban, obraz czy jakikolwiek inny obiekt i ponowne dekodowanie w syntetyzatorze atomowym. Jego człon środkowy, to jest owo stadium, w którym nie ma już oryginalnego dzbana (bo się na przykład potłukł), a tylko jego „atomowy rysopis”, nie jest naturalnie tożsamy pod względem materialnym z pierwowzorem. Protokół może byś spisany na papierze, może stanowić utrwalone w maszynie cyfrowej szeregi impulsów, itd., przy czym naturalnie brak wszelkiego podobieństwa materialnego między tym systemem znaków a dzbanem czy obrazem. Niemniej, istnieje wzajemnie jednoznaczna odpowiedniość wszystkich znaków owego zbioru względem przedmiotu oryginalnego, i ona właśnie umożliwia doskonałą rekonstrukcję.

Jeśli zsyntetyzujemy z atomów Napoleona (zakładamy, że jest w naszym posiadaniu jego „atomowy rysopis”), Napoleon będzie żył. A jeżeli sporządzimy taki rysopis dowolnego człowieka i przekażemy go telegrafem do odbiornika, w którym aparatura zbuduje, w oparciu o przybyłą informację, ciało i mózg owego osobnika, wyjdzie on z aparatu żywy i zdrowy.

Kwestia technicznej realizowalności takiego zamierzenia schodzi na drugi plan wobec jego niezwykłych konsekwencji. Co się stanie, jeśli nadamy „rysopis atomowy” nie jeden raz, ale dwa razy? Z aparatu odbiorczego wyjdzie dwu identycznych ludzi. A jeżeli nie wysyłamy tej informacji po] drucie w jednym tylko kierunku, lecz emitujemy ją jako falę radiową, przy czym odbiorniki znajdują się w tysięcznych punktach globu, a także na powierzchni licznych planet i księżyców, człowiek „nadany” ukaże się we wszystkich owych miejscach. Nadaliśmy rysopis pana Smitha raz tylko, i oto Smith pojawia się, wychodząc z kabin aparatów, w milionowej postaci na Ziemi i w niebie, w miastach, na szczytach górskich, w dżunglach i kraterach księżycowych.

Jest to tylko dziwaczne, dopóki nie zapytamy, gdzie właściwie przebywa wówczas pan Smith? Dokąd zawiodła go podjęta telegraficznie podróż? Ponieważ osoby, wychodzące z aparatów odbiorczych, są ex definitione absolutnie tożsame i — wszystkie jednako — zwą siebie panem Smith, jasne jest, że najdokładniejsze badanie czy wypytywanie ich niczego nam nie wyjaśni. Zachodzi zatem, z logicznego punktu widzenia, tylko jedna z dwu możliwości: albo wszystkie te osoby są panem Smith naraz, albo żadna nim nie jest. Jak jednak może być, aby pan Smith istniał w stu milionach miejsc równocześnie? Jego osobowość została „powielona”? Jak to pojąć? Człowiek może pójść tu lub tam, może przeżyć określoną rzeczywistość, ale tylko jedną naraz. Jeśli pan Smith siedzi przy biurku, nie może zarazem znajdować się w kraterze Erathostenesa, na Wenus, na dnie oceanu i przed paszczą nilowego krokodyla. Osoby przetelegrafowane to zwykli, normalni ludzie. Nie może ich zatem łączyć w jedność jakaś tajemnicza więź psychiczna, sprawiająca, by przeżywały wszystkie i podobne do wymienionych rzeczy naraz.

Powiedzmy, że krokodyl pożarł jednego ze Smithów, tego, który dostał się nad Nil. Kto zginął? Smith. A jednak równocześnie żyje dalej, w niezliczonych miejscach jednocześnie? Wszystkich Smithów nie łączy nic więcej aniżeli niezwykłe podobieństwo, a ono nie stanowi przecież żadnej w ogóle więzi w jakimkolwiek fizycznym czy psychicznym rozumieniu. Podobne, choć niezależne duchowo od siebie są np. bliźnięta jednojajowe. Każdy z bliźniaków jest autonomiczną, integralną osobowością, i każdy przeżywa tylko swój własny, jeden jedyny los. I to samo dotyczy miliona przetelegrafowanych Smithów. Jest to milion różnych, bo całkowicie niezależnych od siebie podmiotów psychicznych*.

Paradoks ten wydaje się nie do rozstrzygnięcia. Nie widzimy żadnego” eksperymentu, który by pozwolił rozstrzygnąć, gdzie przebywa kontynuacja tego Smitha, którego nadaliśmy telegraficznie. Spróbujmy jednak podejść do problemu inaczej. Istnieje tak zwane rozszczepienie osobowości, zjawisko znane w psychiatrii. Rozszczepienie to nigdy nie jest jednak tak pełne, jak by to wynikało z różnych literackich jego prezentacji. Można jednak dokonać na żywym mózgu zabiegu takiego rozdzielenia, który sprawi, że w jednej czaszce będą współistniały dwa praktycznie niezawisłe ośrodkowe układy nerwowe. O tym, że jedno ciało może posiadać dwie głowy, wiemy, bo i potworki tego rodzaju żyją niekiedy jakiś czas po urodzeniu (trafiało się to i u ludzi), i stan taki bywał już realizowany sztucznymi zabiegami (np. w ZSRR na psach).

Stany rozdzielenia jednego mózgu na dwie autonomiczne i osobno pracujące części były urzeczywistniane zabiegami neurochirurgicznymi, np. na małpach. Następuje to po przecięciu, możliwie głębokim, wielkiego spoidła, łączącego obie półkule mózgu. Wyobraźmy sobie, że zabiegu takiego dokonano na panu Smith. Rozdzielenie półkul mózgowych nastąpiło stopniowo, tak powoli, aby nie doszło do nagłego zaburzenia funkcji mózgowych aby każda półkula, uniezależniając się od drugiej, miała czas na pełną restytucję po niewątpliwym szoku, jaki tak okrutna interwencja musi przynieść. Po jakimś czasie w głowie pana Smitha znajdują się już dwa czynnościowo niezawisłe od siebie, mózgi. Wydaje się to prowadzić do znanego już nam paradoksu. Małpy, na których dokonano podobnych operacji, zachowują się przy dokładnym badaniu tak właśnie, jakby posiadały dwa mózgi względnie autonomiczne, przy czym albo jeden z nich stale dominuje i opanowuje podporządkowane układy nerwowych dróg zstępujących, a przez to i całe ciało, albo też „podłączają się” one do tych dróg i rządzą ciałem naprzemiennie. Małp jednak oczywiście niepodobna wypytywać o ich stany subiektywne. Inna sprawa ze Smithem. Przyjmijmy (niezgodnie z prawdą anatomiczną, ale dla dobra rozumowania), że obie półkule rozdzielonego mózgu są całkowicie równoważne (w istocie zwykle dominuje u każdego normalnego człowieka lewa półkula). Każda z nich zawiera ten sam zapis pamięciowy i tę samą strukturę osobowości, jaką zawierał uprzednio cały mózg. Pytanie, która półkula stanowi kontynuację Smitha, który z tych dwóch mózgów jest „prawdziwym Smithem”, okazuje się pozbawione sensu. Mamy przed sobą dwu analogicznych Smithów w jednym ciele. Rozdzielony na dwie odnogi, wskutek zabiegu materialnego, dynamiczny tor świadomości wytwarza dwie osobowości niezawisłe, z których każda ma jednakże prawo do uważania siebie za kontynuację osobowości pierwotnej. Powielenie zatem stało się w tym wypadku faktem. Naturalnie może między tymi systemami dochodzić do konfliktów, ponieważ posiadają tylko jeden, wspólny organizm, jeden układ zmysłowy i wykonawczy (mięśniowy). Ale jeśli nowym zabiegiem przeniesiemy teraz obie te półkule, już działające jako pełnowartościowe mózgi, do dwu przygotowanych w tym celu ciał, będziemy mieli przed sobą dwu, także i fizycznie już oddzielonych Smithów. A zatem, jakkolwiek wyobrazić sobie, unaocznić tego nie potrafimy, możliwość powielenia osobowości jest realna. Z punktu widzenia osobnika, opuszczającego aparat odbiorczy, on i tylko on jest prawowitą, normalną i najzdrowszą w świecie kontynuacją „przetelegrafowanego” — i nie mamy podstawy do kwestionowania takiego twierdzenia.

A zatem można wysłać jednego człowieka w wielu kierunkach naraz. Nie znaczy to, aby był jeden we wszystkich osobach. Będzie „go” tylu, ile zostało sporządzonych atomowych kopii. Kontynuacja mnoga jednostki okazuje się faktem.

To jednak tylko pierwszy i, dodajmy, względnie najprymitywniejs paradoks.

Jak się okazuje, zachodzi bowiem osobliwy wypadek „egzystencjalne; względności”, podobny nieco do względności pomiaru w teorii Einsteina, gdzie wynik pomiaru zależy od przyjętego układu odniesienia. Jak wiemy już, z punktu widzenia Smithów, wychodzących z aparatów odbiorczych, każdy z nich jest kontynuacją nadanego telegrafem. Jednakże, z punkt widzenia Smitha, którego nadano, nie jest nią żadna z tych osób.

W samej rzeczy — jak odbywa się ów akt „nadania”? Pan Smith wchodzi do kabiny aparatu, gdzie sporządza się jego „rysopis atomowy”, dajmy na to prześwietlając go bardzo twardym promieniowaniem. Uzyskany tak „plan atomowy” przekazujemy telegraficznie. Za chwilę z odbiorników zaczną] wychodzić w siołach i miastach niezliczeni Smithowie.

Co jednak z oryginałem? Jeżeli wyjdzie z kabiny, w której dokonaliśmy „inwentaryzacji” jego atomów, najoczywiściej nigdzie nie wyruszył, lecz został tam, gdzie był dotąd. Poza tym, jeśli nawet miliony jego kopii wszczęły swe istnienie u aparatów odbiorczych, w niczym nie zmienia to sytuacji oryginalnego Smitha: jeżeli mu o tym wszystkim nie powiemy, pójdzie sobie do domu, pojęcia nawet nie mając, co w ogóle zaszło. A więc wynika z tego, że „oryginał” trzeba unicestwić, i to zaraz po dokonaniu „inwentaryzacji atomowej”. Otóż, postawiwszy siebie w sytuacji pana Smitha, łatwo zauważymy, że perspektywy jego telegraficznej podróży wcale nie są różowe. W samej rzeczy, patrzy na to, że umrze w kabinie, zabity raz na zawsze, natomiast z odbiorników wyjdą osobniki idealnie doń podobne, ale on sam. Jest bowiem tak: między każdym stanem człowieka a jego stanem poprzednim zachodzi ścisła więź przyczynowa. W chwili T1 przeżywam smak słodki, ponieważ w chwili To położono mi na języku kostkę cukru. Pomiędzy panem Smithem a jego rysopisem atomowym też zachodzi więź porzyczynowa: rysopis jest taki a taki, ponieważ zadziałaliśmy na ciało Smitha tak a tak, i doszło dzięki temu działaniu do pełnego przekazu informacji o budowie pana Smitha. Podobnie też istnieje informacyjna i przyczynowa więź między rysopisem atomowym a „kopiami”, które wychodzą z odbiorników, ponieważ zbudowane zostały tak, jak to nakazywała receptura „rysopisu”. Jakie; jednak związki zachodzą między całokształtem tych przemian (Smith jako żywy organizm, Smith jako informacja nadana i liczni Smithowie odtworzeni zgodnie z tą informacją) a śmiercią pana Smitha, którą spowodowaliśmy tuż i po sporządzeniu atomowego rysopisu?

Powiedzmy wyraźnie: nie ma żadnego związku między jednym i drugim. Jeżeli sporządzimy atomową kopię zawieszonego na ścianie Rembrandta, ktoś może powiedzieć: poznaję oryginał po jego położeniu: wisi na ścianie, a wobec tego kopią jest ten drugi obraz na sztalugach. Jeżeli spalimy oryginał, nikt już go nie znajdzie. Zniszczyliśmy jedyny przedmiot, który pozwalał wątpić w oryginalny charakter atomowej kopii. Jednakże kopia nie stała się przez to oryginałem, w tym sensie, żeby obróciła się w ów przedmiot z drzewa i płótna, który znakomity malarz holenderski pokrył paręset lat temu farbami. Jest empirycznie nieodróżnialna od oryginału, ale nie jest nim, dzięki odmiennej historii.

Jeśli zabijemy Smitha, zapewniając go, że niebawem otworzy oczy w milionie miejsc naraz, należy uznać, iż będzie to czyn szkaradny: morderstwo, którego ślady zostaną „cybernetycznie” zatarte, i to z nadwyżką, bo zamiast jednego, zgładzonego osobnika, pojawi się ich mnóstwo, takich samych.

Skoro nie wystarczy zatem, dla przetelegrafowania człowieka, nadanie jego rysopisu atomowego, ale ponadto jeszcze trzeba owego człowieka koniecznie uśmiercić, zbrodniczy charakter tego przedsięwzięcia wydaje się oczywisty. Powiedzmy, aby rzecz uwyraźnić, że Smithowy rysopis nadajemy; kopie jego osoby pojawiają się już w drzwiach odbiorników, ale oryginał wciąż żyje i o niczym nie wie. Czy wolno przypuszczać, że będzie przebywał w naszym towarzystwie dopóty, dopóki nie weźmiemy się doń z młotkiem w ręku i w momencie, kiedy rozbijemy mu czaszkę, człowiek ten nagle „stanie się”, niewiadomym sposobem, bądź to jednym z tamtych, przetelegrafowanych osobników, bądź też wszystkimi nimi naraz?! Co właściwie ma go przetransportować na drugi koniec drutu telegraficznego, jeśli nie zdołała uczynić tego sama transmisja sygnałów? Cios młotkiem w potylicę? Jak widzimy, przypuszczenie takie to nie paradoks, lecz czysty absurd. Smith zginie, i to na wieki wieków, o żadnym więc przetelegrafowaniu człowieka nie może być i mowy.

Szkopuł ten nie odnosi się tylko do przekazu informacji o człowieku telegraficznego. Tak na przykład, każdy człowiek mógłby w przyszłości posiadać „atomową matrycę” swego ciała, przechowywaną w „banku osobowości”. Matryca stanowiłaby idealny zapis jego atomowej struktury, zapis, tak mający się do niego, jak się ma plan architektoniczny do materialnego domu. Jeśli ów człowiek zginie np. w nieszczęśliwym wypadku, rodzina udaje się do banku, matrycę wprowadza się do atomowego syntetyzatora i ku powszechnemu zachwytowi tragicznie zmarły opuszcza aparat i rzuca się w objęcia stęsknionych krewnych. Otóż, to jest możliwe, ale, jak już się orientujemy, owa radosna scena bynajmniej nie anuluje śmierci „oryginału”. Ponieważ jednak w tym wypadku nikt nie dokonał morderstwa, a jedynie ofiarę katastrofy czy choroby zastąpi skutecznie „atomowy sobowtór”, brak takich moralnych oporów, które by tego rodzaju praktykę uczyniło czymś nie do przyjęcia, przynajmniej w obrębie określonej cywilizacji.

Natomiast nie można stosować analogicznej metody celem stworzenia sobie samemu „rezerwy istnienia”, tj. dla zagwarantowania kontynuacji osobistej. To bowiem, czy mam tylko w biurku lub w banku własny „rysopis atomowy”, który w żywego mojego sobowtóra zmieni się dopiero po włożeniu do syntetyzatora (zauważmy nawiasowo, że rysopis jest po prostu programem działania) czy też już obecnie, za życia, posiadam żywego sobowtóra, absolutnie nie ma wpływu na mój własny los. Jeżeli spadnę w przepaść albo zginę w inny sposób, sobowtór zastąpi mnie niewątpliwie, ale ja już żyć nie będę. Dowodem na to jest współistnienie czasowe oryginału i kopii. Mają się one do siebie, jak dwaj bliźniacy, a przecież nikt przy zdrowych zmysłach nie będzie głosił, że jeden bliźniak jest „rezerwą kontynuacji” drugiego.

Doszliśmy na razie do tego, że nie sam akt przetelegrafowania informacji nieodwracalnie zabija człowieka, lecz następujące po nim unicestwienie tego człowieka, które ma stworzyć ułudę, jakoby on sam we własnej osobie naprawdę powędrował na drugi koniec drutu. Otóż, wydaje się, iż nieodwracalność śmierci osobniczej sprawia przerwa w ciągłości istnienia.

Tutaj dopiero wchodzimy w istne piekło paradoksu. Jak wiadomo, medycyna współczesna wiele sobie obiecuje po doskonalonej z roku na rok hibernacji. Ów stan życia zawieszonego, spowolnionego, spotykany fizjologicznie u pewnych ssaków (nietoperz, niedźwiedź), można, z jednej strony, nadać człowiekowi, który normalnie nigdy nie hibernuje (odbywa się to dzięki stosowaniu odpowiednich środków farmakologicznych, oziębianiu ciała itp.), z drugiej zaś, stan ów można pogłębiać tak, że z zimowego snu staje się coraz bardziej podobny do autentycznej śmierci. Ten stan śmierci odwracalnej, nie spowolnienia tylko, lecz zupełnego wstrzymania wszystkich życiowych procesów, sprowadza się bardzo znacznym ochłodzeniem całego organizmu. Jak dotąd, udało się go już zrealizować u niektórych zwierząt doświadczalnych, a organizmy jednokomórkowe (do jakich w pewnym sensie należą też plemniki nasienia, także i ludzkiego) można przez zamrożenie utrzymać w takim stanie przez czas bardzo, może i dowolnie długi. Możliwość zapłodnienia kobiety nasieniem mężczyzny, zmarłego nawet, przed wieluset laty staje się już więc w pełni realna.

Oziębianie organizmów tak złożonych jak ludzki (czy w ogóle ssaków) poniżej punktu zamarzania wody nastręcza wielkie trudności, gdyż woda tkankowa ma tendencję do krystalizacji w postaci lodu, a reakcja ta wiedzie do zniszczenia życiowo ważnych struktur protoplazmy. Nie są to jednak trudności niepokonywalne. Można sądzić, że technika takiego zamrażania, dająca blisko stuprocentową szansę późniejszego wskrzeszenia w dowolnie wybranym momencie, zostanie urzeczywistniona. Pokłada się w niej niemałe nadzieje, co się tyczy, między innymi, perspektyw długich podróży kosmicznych. Jednakże, w świetle dotychczas rozważonych eksperymentów myślowych, technika ta może budzić niejakie wątpliwości. Czy aby na pewno mamy do czynienia ze śmiercią odwracalną? Czy nie jest możliwe, że osobnik zamrożony umiera na zawsze, a ten którego wskrzeszamy, jest jak gdyby tylko kopią? Wydaje się, że to jest ten sam osobnik. Przecież procesy życiowe zostały tak tylko zatrzymane, jak zatrzymuje się mechanizm zegarka. Ich ponowne uruchomienie jest równoznaczne z ożyciem. Zresztą, owe procesy nie ulegają absolutnemu zastygnięciu. Wiadomo, że sprawa ma się z tymi zjawiskami trochę jak z tarczą, złożoną z siedmiu sektorów o barwach tęczy. Dopóki stoi ona lub obraca się wolno, widzimy pojedyncze kolory. Zwiększenie obrotów wiedzie do migotania, a przy ich dostatecznej szybkości barwy zlewają się w jednolitą biel. Coś podobnego jest ze świadomością. Będące podłożem jej procesy muszą mieć określone tempo, poniżej którego świadomość zaczyna mrocznieć, a potem rozpada się, daleko wcześniej, zanim dojdzie do rzeczywistego ustania biochemicznych reakcji mózgowych. Tak więc świadomość gaśnie wcześniej, niż zatrzymują się procesy przemiany materii, z kolei one ustają praktycznie, ale mogą się toczyć, choć nie wszystkie i nadzwyczaj wolno. Zapewne, tuż przy temperaturze zera absolutnego ich bieg właściwie ustaje i organizm nie starzeje się. Jednakże czy tak jest, czy owak, wszystkie struktury żywej tkanki zostają zachowane. A zatem uniewinniliśmy jak gdyby zabieg zamrożenia spod zarzutu morderstwa.

Dokonajmy jednak jeszcze jednego myślowego doświadczenia. Powiedzmy, żeśmy do temperatury prawie zera absolutnego zamrozili naszego Smitha. Jego mózg, jak każdy inny organ ciała, przedstawia strukturę krystaliczną. Prócz tych znikomych oscylacji, jakie atomy wykazują nawet na najniższym poziomie energetycznym, nie dostrzeżemy przez mikroskop elektronowy żadnych ruchów. Uwięzione mrozem, atomy mózgu pana Smitha, znieruchomiałe i przez to łatwiej dostępne, możemy pojedynczo powybierać z jego czaszki i powkładać do odpowiednich naczyń. Dla porządku składamy osobno atomy każdego pierwiastka. Przechowujemy je tak, wciąż dla pewności w mrozie płynnego helu, aż wreszcie, gdy nadchodzi pora, składamy je na powrót, dokładnie dopasowując każdy, gdzie należy. Teraz już cały, ale jeszcze zamrożony mózg wraz z ciałem poddajemy skutecznym zabiegom wskrzeszania. Pan Smith, odmrożony, wstaje, ubiera się i idzie do domu. Nie mamy żadnych wątpliwości, że to był naprawdę on we własnej osobie. Nagle okazuje się, że laborant nasz potłukł co do jednej probówki, w których pod postacią drobniutkiego proszku znajdowały się atomy węgla, siarki, fosforu i wszystkich innych pierwiastków, z jakich składał się mózg p. Smitha. Myśmy te probówki ustawili w chłodni na stole, laborant przewrócił stół, a widząc się w obliczu takiej katastrofy, usunął szybko jej ślady; co zostało z rozsypanych pierwiastków, to zebrał do nowych probówek, a braki uzupełnił, posługując się w tym celu zapisami w księdze laboratoryjnej, gdzie spisaliśmy, z dokładnością do jednego atomu, co znajduje się w której probówce. Jeszcześmy nie ochłonęli po usłyszeniu tej wieści, jeszcze widzimy przez okno oddalającego się i kręcącego laseczką na podwórcu pana Smitha, gdy drzwi się otwierają i wchodzi drugi Smith. Co się stało? Probówki, spadając ze stołu, potkłukły się, laborant się spieszył i zebrał tylko połowę rozsypanych proszków, lecz jego kolega, pragnąc przysłużyć mu się, później dokładnie zebrał resztki rozproszonych pierwiastków, znowu to, czego nie

dostawało, uzupełnił według księgi laboratoryjnej, wprowadził sam atomy na właściwe miejsca, z gorliwością uruchomił odmrażacz i wskrzesił pana Smitha nr 2.

I któryż to z panów Smithów jest właściwie kontynuacją zamrożonego, pierwszy czy drugi? Każdy posiada mniej więcej połowę „oryginalnych” atomów, co zresztą o tyle nie jest istotne, że atomom brak indywidualności i podczas przemiany materii organizm nieustannie je wymienia. Zapewne, wygląda na to, .że doszło do powielenia pana Smitha. Ale co z oryginałem? Żyje w obu ciałach, czy może raczej w żadnym z nich? Tym razem, w przeciwieństwie do eksperymentu z przecięciem wielkiego spoidła półkul mózgu, pytanie jest nie do rozstrzygnięcia, ponieważ brak jakichkolwiek kryteriów empirycznych, na których by się można opierać. Naturalnie można by dylemat rozstrzygnąć arbitralnie, umówiwszy się, że np. kontynuacją naszego znajomego, którego tak karkołomnym poddajemy wciąż próbom, są obaj panowie S. Jest to wygodne, może nawet w tej sytuacji konieczne, ale owo rozstrzygnięcie musi wzbudzić moralne zastrzeżenia. Pan Smith wszedł, żywiąc do nas zaufanie, do hibernacyjnej lodówki tak samo spokojny, jak wchodził był do kabiny telegrafu, z której, po stuknięciu młotkiem, wyciągnęliśmy go za nogi, pocieszeni trochę jego mnogim pojawieniem się na planetach układu słonecznego. W tamtym przypadku doszło, jakeśmy dowiedli, do morderstwa. A w tym? Zapewne, brak trupa zdaje się świadczyć na naszą korzyść, ale i wtedy mogliśmy wszak rozproszyć Smitha na chmurkę atomów, a nie tyle zależy nam na dokonaniu mordu w sposób niezauważalny i wysoce estetyczny, ile na niepopełnieniu go wcale.

Zaczynamy tracić głowę. Czyżby istniała jakaś niematerialna dusza, która uwięziona jest w strukturze mózgu, niczym ptak w klatce, która ulatuje z cielesnych okowów, kiedy pręty klatki, to jest atomy struktury, zostają rozłamane i porozdzielane? Tylko rozpacz popycha nas ku hipotezom tak metafizycznym. Ale i one niczego nie ratują. Co się stało po przecięciu wielkiego spoidła mózgu? Czyżby zarazem udało się nam rozciąć na dwoje niematerialną duszę? A zresztą, czy z odbiorników telegrafu nie wychodziły całe szeregi normalnie uduchowionych Smithów, z czego oczywisty wniosek, że jeżeli dusza w ogóle istnieje, to każdy atomowy syntetyzator z łatwością potrafi ją skonstruować? A w ogóle nie o to chodzi, czy pan Smith ma duszę niematerialną. Powiedzmy, że ją ma. Chodzi o to, że każdy nowy Smith był absolutnie pod wszystkimi względami taki sam, jak Smith oryginalny, a przecież nie był nim, bo należało użyć oprócz rysopisów, telegrafu itp., jeszcze i młotka! A zatem nic nam po takim wyjaśnieniu.

A może paradoks bierze się stąd, że myślowe nasze eksperymenty są tak samo sprzeczne z możliwościami realnego świata, jak np. wyobrażona podróż z szybkością nieskończenie wielką albo perpetuum mobile? Ale i to nieprawda. Czy w przypadku bliźniąt jednojajowych Natura nie prezentuje nam niezmiernie dokładnych kopii ludzkiego organizmu? Bliźnięta takie nie są idealnie tożsame pod względem struktury atomowej, z tym zgoda. Ale wynika to i stąd, że technologia ewolucyjna, że selekcja nigdy nie dążyła do stworzenia absolutnego owej struktury podobieństwa, ponieważ było to pod względem biologicznym najzupełniej obojętne, zbędne. A skoro taki stopień podobieństwa układów o równym stopniu złożoności uzyskany został mimochodem niejako i losowo (albowiem elementy losowe grają niemałą rolę w powstaniu bliźniąt, przy pierwszym podziale zapłodnionego jaja), to biotechnologia przyszłości, ożeniona z cybernetyką, będzie pewno mogła pokusić się o prześcignięcie tego sukcesu, który stał się przypadkowym tylko udziałem Natury.

Winniśmy dla zupełności naszych wywodów rozważyć też ewentualność, gdyby sam akt sporządzania atomowego zapisu niszczył żywy organizm. Sytuacja taka usunęłaby niektóre paradoksy (np. paradoks możliwego współistnienia „kontynuacji” i oryginału) i mogłoby to stać się podstawą do twierdzenia, że właśnie tak być musi, to jest, że podobne współistnienie daje się tylko pomyśleć, ale jest fikcją nie do urzeczywistnienia. Dlatego sprawie całej poświęcimy nieco więcej uwagi. Wyobraźmy sobie, że mamy do dyspozycji dwie aparatury do przetelegrafowywania ludzi, jedną, aparaturę O, i drugą, aparaturę N. Aparatura O ocala tego, kogo mamy przetelegrafować, to jest, po zebraniu całkowitej informacji o jego atomowej strukturze, człowiek pozostaje w pełni zdrowia. Aparatura N działa w taki sposób, że w trakcie zbierania informacji jednocześnie niszczy strukturę atomową badanego, a tym samym po zakończeniu spisu mamy zabitego człowieka względnie jego rozproszone resztki oraz całkowity zasób informacji strukturalnej . Dodajmy nadto, że ilość zyskanej informacji będzie w obu wypadkach taka sama, tj. pełna i wystarczająca do odtworzenia takiego samego osobnika, po przetelegrafowaniu jej do stacji odbierającej.

Aparatura typu O, ocalająca, jest jako bardziej subtelna, także bardziej skomplikowana i powstanie zapewne historycznie później, jako owoc technologii bardziej zaawansowanej od tej, która wydała aparaturę niszczącą N. Mimo to najpierw rozpatrzymy aparaturę O. Działa ona na zasadzie „punktowania”, to jest promienia wodzącego, nieco podobnie jak w kineskopowej lampie telewizora. Promień z aparatury biegnie po ciele badanego. Każdorazowe zetknięcie się promienia z atomem czy elektronem odnotowywane jest natychmiast w pamięci aparatu, dzięki temu, że ów promień „potyka się” na każdej cząstce materii. Atomy powierzchownych warstw ciała, po zapisaniu ich lokalizacji, stają się niejako przeźroczyste dla owego promienia. Oczywiście, by się tak działo, promień nie może być materialny (korpuskularny). Powiedzmy, że nie jest to żaden taki promień, a jedynie punkt przyłożenia pól elektromagnetycznych, którymi umiemy tak pokierować, że się one nakładają. W efekcie, kiedy napotykają tylko próżnię, strzałki aparatury nie poruszają się. Zależnie od masy atomu, który znajdzie się na drodze przebiegu tych pól, wskutek powstającego oddziaływania wartość pól ulegnie zmianie i strzałki się wychylą, co zarejestruje odpowiedni układ „pamięci”. Aparatura rejestruje jednocześnie przestrzenno—czasowe miejsca odczytów, ich kolejność, itd., a po dokonaniu l020 pojedynczych odczytań, zachodzących naturalnie z prędkością milionów na sekundę, mamy już zapisaną całą informację o położeniu wszystkich atomów ciała, czyli o jego konfiguracji materialnej. Aparatura jest tak czuła, że na atom zjonizowany reaguje inaczej niż na niezjonizowany, na atom, znajdujący się w określonym miejscu łańcucha białkowego też inaczej, bo zależy to od gęstości powłoki elektronowej molekuły, itd. Te, służące zapisowi, biegnące pola elektromagnetyczne powodują bez wątpienia swym oddziaływaniem drobne odchylenie atomów ciała od ich stanów poprzednich, lecz są owe odchylenia tak nikłe, że organizm zniesie je bez żadnej dla siebie szkody. Kiedy mamy już gotowy zapis, przekazujemy go po drucie, odbiornik, otrzymawszy informację, rusza i stworzony zostaje osobnik–kopia na drugim końcu linii. Jest to osobnik idealnie podobny do oryginału, lecz oryginał nic o tym nie musi wiedzieć, może opuścić kabinę i wrócić do domu, nie mając pojęcia o tym, że tymczasem powstała gdzieś jego kopia, a nawet ich legion. Taki był pierwszy eksperyment.

Uruchamiamy teraz drugą aparaturę. Działa ona znacznie brutalniej, ponieważ promień wodzący jest materialny, wystrzeliwane więc cząstki po kolei uderzają w atomy ciała, najpierw wierzchnich jego warstw, potem głębszych itd. Za każdym razem mamy zderzenie, karambol, i z odchylenia cząstki wystrzelonej, której pęd znamy, odczytujemy pierwotne położenie i masę cząstki trafionej (atomu ciała). Uzyskujemy drugi zapis, tak samo dokładny jak pierwszy, tyle, żeśmy samą procedurą rozproszkowali organizm, obrócony po zakończeniu działań w niewidzialny obłoczek.

Proszę zauważyć, że w obu wypadkach uzyskujemy dokładnie taką samą ilość informacji, z tym jednak, żeśmy za drugim razem w trakcie odczytu zniszczyli organizm pierwotny. Ponieważ zniszczenia dokonała jedynie brutalność aparatury, która w niczym nie zwiększyła zasobu zdobytej informacji, to fakt zniszczenia jest wobec samego aktu przesłania informacji uboczny i nie wiąże się ani z nim, ani z następującą potem syntezą atomowej kopii na drugim końcu Unii.

Przesył informacji bowiem i umożliwiona przezeń synteza następują w obu wypadkach dokładnie tak samo. Skoro następują tak samo, to staje się jasne, że dla tego, co zachodzi na drugim końcu drutu, los oryginału nie ma żadnego znaczenia. Innymi słowy, po tamtej stronie, u odbiornika, powstaje w obu wypadkach osobnik absolutnie taki sam. Skoro jednak udowodniliśmy, dla wypadku pierwszego, że powstały osobnik nie mógł być kontynuacją oryginału, to tym samym musi to też dotyczyć wypadku drugiego. A zatem udowodniliśmy, że stworzony w syntetyzatorze osobnik jest zawsze imitacją, kopią, a nie „przesłanym po drucie oryginałem”, a to z kolei wskazuje, iż „wstawka” w przyczynowo–skutkowe łańcuchy istnienia organizmu, wstawka, utworzona z zapisu i przesyłu informacji, w rzeczywistości nie jest tylko wstawką, cezurą pomiędzy dwiema częściami ciągłej linii życiowej tożsamego osobnika, lecz stanowi akt wytworzenia osobnika imitującego, jakby bliźniaka, przy czym oryginał albo zostaje zachowany przy życiu, albo ginie. Dla kopii los jego nie ma żadnego znaczenia, bo ona kontynuacją oryginału nie jest nigdy, oryginał natomiast w pierwszym przypadku pozostając przy życiu, samą obecnością swoją obala sąd, jakoby go właśnie dokądś „przetelegrafowano”, w drugim zaś, wskutek swej zagłady, stwarza (fałszywe, jakeśmy właśnie wykazali) wrażenie, że jednak udał się w „podróż po drucie”.

Na .koniec przedstawimy taki wariant eksperymentu, który obywa się zarówno bez sporządzenia atomowej matrycy, jak i atomowego syntetyzatora. Nie jest on jeszcze dziś do urzeczywistnienia, ale na tej drodze uczyniono już znaczne postępy. Chodzi o hodowlę zapłodnionego jaja ludzkiego poza obrębem organizmu. Jajo to należy przepołowić. Jedną połówkę zamrażamy, a drugiej pozwalamy się normalnie rozwinąć. Powiedzmy, że powstaje z niej człowiek, który w dwudziestym roku życia umiera. Odmrażamy wtedy drugą połówkę jaja i po dwudziestu latach mamy „drugiego bliźniaka”, o którym można powiedzieć, że stanowi kontynuację zmarłego — akurat z takim samym uzasadnieniem, jakeśmy czynili wobec sporządzonej w syntetyzatorze kopii atomowej. To, że trzeba było czekać dwadzieścia lat na powstanie „kontynuacji”, niczego nie przesądza, bo jest całkiem możliwe, że i syntetyzator atomowy musiałby trudzić się dwadzieścia lat, zanim sporządziłby kopię atomową. Jeżeli zatem uznamy owego „drugiego bliźniaka” za kontynuację zmarłego, a nie za sobowtóra o łudzącym wyglądzie, to samo dotyczyć będzie i sprawy stworzenia kopii atomowej. Wtedy jednak każdy zwykły bliźniak, którego rozwój opóźnimy hibernacją, jest „przedłużeniem” swojego brata. A że czas hibernacji dowolnie można skrócić, ostatecznie każdy bliźniak okazuje się kontynuacją drugiego bliźniaka, co już jest chyba absurdem oczywistym. Bliźniak nie jest co prawda idealną molekularną kopią „oryginału”. Niemniej, podobieństwo zachodzące między dwoma stanami tego samego człowieka, w których kolejno ma on osiem, a potem osiemdziesiąt lat, jest na pewno jeszcze mniejsze aniżeli podobieństwo wzajemne bliźniąt. Mimo to każdy przyzna, że dziecko to i starzec są tą samą osobą, czego o dwu braciach powiedzieć się nie da. Nie ilość analogicznej informacji decyduje zatem o kontynuowaniu istnienia, lecz genidentyczność (tj. identyczność genetyczna) nawet znacznym zmianom podlegającej w ciągu życia struktury dynamicznej mózgu.


VII. Stwarzanie światów

Wstęp

 

Jesteśmy chyba u schyłku epoki. Nie mam na myśli czasów pary i elektryczności, przechodzących w następne, cybernetyki i kosmonautyki. Samo takie nazewnictwo jest już ugięciem się wobec technologii, stających się zbyt potężnymi, abyśmy mogli i w przyszłości pogodzić się z ich autonomią. Cywilizacja ludzka jest jak okręt, zbudowany bez planów. Budowla udała się nad podziw. Stworzyła olbrzymie maszyny napędowe i zagospodarowała wnętrze swego statku, prawda, że nierównomiernie, ale to jest do odrobienia. Ale ten okręt nie ma sternika. Cywilizacji brak wiedzy, która pozwoliłaby wybrać świadomie, kurs spośród wielu możliwych, zamiast dryfowania w prądach losowych odkryć. Bo odkrycia, jakie złożyły się na budowlę, wciąż jeszcze są po części dziełem przypadku. Faktu tego nie zmienia to, że nie znając dalszej drogi, zmierzamy ku brzegom gwiazd. Zapewne: realizujemy to, co już możliwe. Nauka uwikłana jest w walkę z Naturą, a choć w jednej partii po drugiej odnosi sukcesy, do tęga stopnia daje się wciągnąć w konsekwencje wygranej, tak każdą eksploatuje, że zamiast strategii uprawia taktykę. Otóż, paradoksalnie, im więcej będzie w przyszłości tych sukcesów, takich wygranych, tym trudniejsza stanie się sytuacja, ponieważ, jakeśmy już ukazali — nie zawsze można będzie eksploatować wszystko, co zdobędziemy. Embarras de richesse, lawinę informacji, obruszoną na człowieka przez jego zachłanność poznawczą, należy opanować. Musimy nauczyć się regulowania nawet postępu wiedzy, w przeciwnym razie losowość kolejnych etapów rozwoju będzie rosła. Wygrane, to jest otwierające się nagle obszary nowego, wspaniałego działania — będą nas zamykały swym ogromem, uniemożliwiając przez to dostrzeżenie innych, kto wie czy w. dalekosiężnej perspektywie nie cenniejszych jeszcze możliwości.

Chodzi o to, aby cywilizacja zyskała swobodę strategicznego manewru rozwojowego, aby mogła pokierować własnymi drogami. Świat ma dziś inne troski. Jest podzielony, nie zaspokaja potrzeb milionów, ale jeśli zostaną wreszcie zaspokojone? Jeśli ruszy automatyczna produkcja dóbr? Czy Zachód to przeżyje? Groteskowa wizja: bezludnych wytwórni miliarda przedmiotów, maszyn, środków żywnościowych, produkowanych energią gwiazdy, do której „podłączona jest” cywilizacja — czy jakaś General Apocalyptics stanie się właścicielem tej gwiazdy?

Mniejsza zresztą o prawa własności. Jeśli powiadam, że kończy się jednak epoka, nie myślę nawet o agonii starych ustrojów. Zaspokojenie elementarnych potrzeb ludzi jest zadaniem obowiązkowym, przygotowaniem do egzaminu dojrzałości, początkiem jej, a nie końcem.

Nauka wykluwa się z technologii i okrzepnąwszy, bierze ją na hol. Mówić o przyszłości, zwłaszcza dalekiej, to mówić o przemianach nauki. To, o czym będziemy rozprawiali, nie urzeczywistni się być może nigdy. Rzeczy niewątpliwie pewne to te, które się dzieją, a nie te, które są do pomyślenia. Nie wiem, czy Demokryt lub Tales myśleli bardziej zuchwale od człowieka współczesnego. Może i nie, bo nie ogarniali labiryntu faktów, splątanej dżungli hipotez, przez które dane nam było przejść w tych kilkudziesięciu wiekach, tak że cała historia nauki to właściwie surowa kraina, poznaczona śladami klęsk liczniejszych wielokrotnie od osiągnięć, rojąca się od porzuconych jak wraki systemów, od teorii, przestarzałych jak prymitywne krzesane narzędzia, od pogruchotanych prawd, które cieszyły się ongiś powszechnym uznaniem. Widzimy dzisiaj, że całe wieki zaciekłych sporów toczonych w obrębie nauki były z pozoru daremne, gdyż spierano się o pojęcia, o słowa, z których sam upływ czasu wyługował ich sens. Tak było z puścizną Arystotelesa, setki lat po nim, z walką epigenetyków i preformistów w biologii; powiadam „z pozoru”, bo równie można by powiedzieć, że tak samo pozorne czy zbędne były te wszystkie wymarłe już organizmy, te skamieliny zwierząt, które poprzedziły powstanie człowieka. Nie wydaje mi się szczęśliwe twierdzenie, że one jego przyjście przygotowały, byłoby to bowiem wyrazem nazbyt egoistycznego antropocentryzmu. Wystarczy może powiedzieć, że te kopalne stworzenia, tak samo jak stare teorie, były łańcuchem etapów, nie zawsze koniecznych, nie zawsze nieuniknionych, nieraz opłacanych nad wszelką miarę, nieraz zwodzących na manowce, a jednak całością swoją ułożyły drogę, która wznosi się coraz wyżej. Nie chodzi zresztą o uznanie ich jednostkowej wartości.

Nic prostszego, jak wymarłe formy organizmów nazwać prymitywnymi, a twórców fałszywych teorii — głupcami. Kiedy to piszę, na moim biurku leży numer czasopisma naukowego z doniesieniem o eksperymencie, którego wyniki zaprzeczają jednej z podstawowych prawd fizyki — Einsteinowskiej tezie o stałej szybkości światła. Być może, prawo to jeszcze się obroni. Ważne jest coś innego. To, że nie ma dla nauki prawd ani autorytetów nienaruszalnych. Błędy jej i pomyłki nie są śmieszne, bo wynikają ze świadomie podjętego ryzyka. Świadomość taka uprawnia do wypowiadania hipotez, bo nawet jeśli rychło upadną, porażka spotka nas na właściwej drodze. Człowiek bowiem, od swego zarania, zawsze wyruszał w tę drogę, także wtedy, gdy sobie tego jeszcze nie uświadamiał.


Hodowla informacji

 

Sporo cybernetyków zajmuje się obecnie problemem „automatyki hipotezotwórczej”. „Teoria” wytworzona w maszynie, jest strukturą informacyjną, która skutecznie koduje ograniczony zbiór informacji, istotnej względem pewnej klasy zjawisk otoczenia. Zbiór ten może być skutecznie użyty dla formułowania niezawodnych przepowiedni dla owej klasy. Maszynowa teoria klasy przedstawia w języku maszyny pewną niezmienną własność, wspólną wszystkim elementom owej klasy. Maszyna uzyskuje informację z otoczenia i wytwarza pewne „konstrukty”, czyli hipotezy, które współzawodniczą ze sobą aż do zagłady bądź do stabilizacji, w trakcie tej „ewolucji”, tego „procesu poznania”*.

Największe trudności przedstawiają: sprawa wstępnego powstania w maszynie niezmienników, która decyduje o dalszych już procesach hipotezotwórczych, sprawa pojemności pamięci maszynowej i szybkości dostępu do zawartej tam informacji, jak również regulacyjne opanowanie wzrostu „drzew asocjacyjnych”, które są lawinowo narastającymi, alternatywnymi ujęciami roboczymi. Przy tym niewielki wzrost ilości wstępnie uwzględnionych zmiennych (zjawiskiem niech będzie wahadło, pytanie brzmi: jak wiele zmiennych trzeba uwzględnić, by wypowiadać przepowiednie o jego stanach przyszłych?) powoduje zawalenie się całego tego programu. Przy pięciu zmiennych wielka maszyna cyfrowa może, działając w tempie miliona operacji na sekundę, przepatrzeć wszystkie ich wartości w ciągu dwu godzin. Przy sześciu zmiennych ten sam proces wymaga 30 000 takich maszyn, pracujących z maksymalną szybkością przez kilkadziesiąt lat. Z czego wynika, że jeśli zmienne są losowe (przynajmniej dla nas: tj. dopóki nie domyślamy się żadnego związku między nimi), żaden w ogóle układ, wszystko jedno, sztuczny czy naturalny, nie będzie mógł operować ilością zmiennych większą od kilkudziesięciu, choćby rozmiarami dorównał Metagalaktyce.

Gdyby ktoś chciał np. zbudować maszynę, która modelowałaby socjogenezę, przy czym każdemu człowiekowi, jaki żył od Australopiteka, trzeba przyporządkować szereg zmiennych, zadanie byłoby niewykonalne, teraz i zawsze. Na szczęście nie jest to potrzebne. Gdyby było, gdyby pęd, spin (kret), moment każdego elektronu z osobna musiały być uwzględnione regulacyjnie przez Naturę, nigdy nie zbudowałaby żywych ustrojów. Nie uczyniła też tego na poziomie atomowym (nie ma organizmów składających się ledwo z pani milionów atomów), ponieważ regulacyjne opanowanie fluktuacji kwantowych i ruchów brownowskich nie było dla niej możliwe. Dość zmiennych niezależnych okazuje się na owym poziomie zbyt wielka. Komórkowa budowa organizmów jest nie tyle rezultatem powstania jednokomórkowców jako ustrojów pierwszych, ile wynikiem konieczności, której korzenie sięgają znacznie głębiej w istotne właściwości materii. Hierarchiczność budowy jest nadaniem względnej autonomii jej poziomom, podwładnym głównemu regulatorowi, ale zarazem jest konieczną rezygnacją z kontroli wszystkich zachodzących w ustroju przemian.

Hierarchiczna też musi być budowa postulowanych przez nas, przyszłych owoców drzewa Imitologicznego. Problem ten niebawem rozpatrzymy. Obecnie interesować nas będzie zakres działań imitologicznych.

Powtórzmy to, do czegośmy już doszli.

Do pewnego stopnia komplikacji opłaca się budowanie modeli, które stanowią dynamiczne sprzężenie zmiennych, uznanych za istotne. Bardzo ważna jest znajomość przedziału ważności modelu, tj. tego, w jakim zakresie model odwzorowuje zachowanie się zjawiska rzeczywistego. Wybór zmiennych istotnych nie jest rezygnacją ze ścisłości, przeciwnie, ponieważ chroniąc nas przed zalewem informacji nieistotnej, umożliwia szybsze wykrycie całej klasy zjawisk podobnych do badanego, tj. stworzenie teorii. O tym, co jest modelem, a co zjawiskiem „oryginalnym”, mogą decydować konkretne okoliczności. Jeśli neutrony w reakcji łańcuchowej rozmnażają się w postępie takim samym, jak bakterie na pożywce, to — pod względem parametrów wzrostu wykładniczego — jedno zjawisko może być modelem drugiego. Ponieważ wygodniej można badać np. bakterie, za model uznamy kulturę bakteryjną. Gdy jednak modele zaczynają się nadmiernie komplikować, wtedy albo szukamy modeli innego typu, albo sięgamy do modelu „równoważnego” (człowieka „wymodelujemy” innym człowiekiem, poprzez „boczne wejście” w nurt embriogenezy, jak była o tym mowa).

Ilość wiedzy wstępnej musi być tym większa, im dokładniejszy ma być model. Poglądowość modelu nie ma żadnego znaczenia. Ważne jest tylko, aby można mu „stawiać pytania” i uzyskiwać odpowiedzi. Należy zwrócić uwagę na różnicę podejścia do modelu, jaka dzieli uczonego od technologa. Technolog, uzyskawszy możliwość „syntezy żywego organizmu”, jeśli taki był jego cel — zadowoli się otrzymaniem „produktu końcowego”. Uczony, przynajmniej w klasycznym rozumieniu, pragnie poznać dokładnie „teorię syntezy organizmu”. Uczony pożąda algorytmu, technolog natomiast podobny jest raczej do ogrodnika, który sadzi drzewo, zrywa jabłka i nie troszczy się o to, „jak jabłoń to zrobiła”. Uczony uważa takie wąskoużytkowe, pragmatyczne ujęcie za grzech przeciwko Kanonom pełnego poznania. Wydaje się, że w przyszłości dojdzie do zmiany tych obu postaw.

Modele są zbliżone do teorii tym, że pomijają szereg zmiennych zjawiska uznanych za nieistotne. Im więcej jednak zmiennych uwzględnia model, w tym większym stopniu z odwzorowania „teoretycznego” staje się powtórzeniem zjawiska. Model mózgu ludzkiego jest to dynamiczna struktura, uwzględniająca zmienne istotne wszystkich mózgów ludzkich, ale model mózgu pana Smitha jest w tym mniejszym stopniu „ważny” dla innych mózgów, im bardziej powiększa się „powierzchnia jego styku dynamicznego” z wszystkimi procesami mózgu p. Smitha. Tak więc wreszcie model uwzględnia i to, że p. Smith jest tępy w matematyce, a nawet, że wczoraj spotkał swą ciotkę. Oczywiście, tak wierny model, będący niejako „dosłownym” powtórzeniem zjawiska (gwiazdy Capella, małego mopsa Fikusia, p. Smitha), nie jest nam potrzebny. Jak z tego widać, maszyna, która by z niesamowitą szybkością kopiowała każde zjawisko materialne, byłaby uniwersalnym plagiatorem, i to wszechuwzględnianie zmiennych zjawiska niejako automatycznie odcinałoby ją od wszelkiej działalności twórczej, która oznacza selekcję, wybór pewnych zmiennych, a odrzucenie innych, w celu odnalezienia klasy zjawisk, którym tory dynamiczne takich zmiennych są wspólne. Własności zachowania się tej klasy, to właśnie teorie.

Teorie są możliwe dlatego, że ilość zmiennych pojedynczego zjawiska jest niezrównanie większa od ilości zmiennych wspólnych dla niego i dla całego mnóstwa innych zjawisk, przy czym pominięcie tych pierwszych jest —ze względu na cele nauki — dozwolone. Dlatego można zrezygnować z badania indywidualnej historii molekuł albo z tego, że p. Smith spotkał wczoraj ciotkę, a także z miliona innych zmiennych.

Co prawda podejścia do zjawisk fizyki i biologii znacznie się od siebie różnią. Atomy są zamienialne, organizmy natomiast nie. W obecnej fizyce cała indywidualna historia atomu jest nieistotna, z wyjątkiem pewnej hipotezy dotyczącej czerwienienia fotonów, wysyłanych przez atom. Atom mógł przylecieć ze Słońca albo z kawałka węgla w piwnicy, ale własności jego w niczym to nie zmienia. Natomiast jeśli ciotka powiedziała p. Smithowi, że go wydziedzicza, za czym p. Smith oszalał z rozpaczy, zmienna ta staje się wielce istotna. P. Smitha można skądinąd zrozumieć, ale to dlatego, że jesteśmy do niego bardzo podobni. Inna sprawa z atomami. Jeśli się stworzy teorię sił jądrowych, a potem zadaje się pytania, co to są właściwie, ale tak „naprawdę”, pseudoskalarne sprzężenia, to pytanie nie ma sensu. Przyporządkowawszy operacjom naszego algorytmu pewne nazwy, nie możemy żądać, aby oznaczały cokolwiek inaczej niż przez związek z tymi właśnie przekształceniami algorytmu. Można najwyżej odpowiedzieć: „Jeżeli dokona pan takich i takich przekształceń na papierze, a potem podstawi to tutaj, to uzyska pan w rezultacie dwa i pół, za czym, kiedy zrobi pan to i to, w laboratorium, i popatrzy na tę strzałkę aparatu, to strzałka stanie w środku między przedziałką 2 i 3”. Doświadczenie potwierdziło wynik teorii, a więc pojęciem pseudoskalarnych sprzężeń i całą resztą nomenklatury będziemy się posługiwali.

Tak więc przeciwrównoległe fotony i cała reszta są to szczeble drabiny, po której wchodzimy na strych, przy czym na strychu można znaleźć coś cennego, w rodzaju nowego źródła energii atomowej, ale pytać o „sens” drabiny „samej w sobie” nie można. Drabina jest kawałkiem sztucznego otoczenia, któreśmy wytworzyli, aby wejść gdzieś na górę, a przeciwrównoległe fotony są kawałkiem operacji na papierze, która pozwala przewidzieć pewne stany przyszłe, i nic ponadto. Powiedziałem to, aby nie wyglądało, że Imitologia ma być czymś takim, co nam „wszystko wyjaśni”. Wyjaśnienie jest sprowadzeniem cech i zachowania nieznanego do znanego, przez odnalezienie podobieństwa do rzeczy znanych, a jeśli nieznane nie jest podobne do kręgla, kuli, sera ani krzesła, pozostaje nam, zamiast bezradności, matematyka.

Prawdopodobnie stosunek uczonego–technologa do świata zmieni się.

Będzie on podłączony do tego świata przez Imitologię. Imitologia nie wyznacza sama żadnych celów działania, te są dane przez cywilizację na określonym etapie rozwoju. Imitologia jest jak luneta; pokazuje to, na co ją skierujemy. Jeśli zauważymy coś interesującego, możemy wzmocnić powiększenie (uruchomić w danym kierunku maszyny informacjozbiorcze). Imitologia, dzięki niezliczonym procesom modelującym różne aspekty rzeczywistości, przedstawi nam rozmaite „teorie”, rozmaite związki i cechy zjawisk. Niczego doskonale izolowanego nie ma, ale świat jest nam przychylny: istnieją izolacje względne (między poszczególnymi poziomami rzeczywistości, atomowym, molekularnym itp.).

Istnieją teorie systemów (w mechanice), teoria bioewolucji byłaby to teoria systemów systemów, a teoria cywilizacji — teorią systemów systemów systemów. Całe szczęście, że procesy kwantowe prawie nie przejawiają się już w skali wielkości organizmu jednokomórkowego, chyba wyjątkowo. Inaczej utopilibyśmy się w oceanie różnorodności, bez nadziei na jakąkolwiek regulację, która zasadza się wpierw na homeostazie biologicznej (dzięki istnieniu na pewno nierozumnych roślin ilość tlenu w atmosferze jest stała, więc one tę ilość regulują), a potem gdy pojawi się rozum, na homeostazie wyzyskującej wyniki wiedzy teoretycznej.

A zatem „modelowanie ultymatywne” jest nie tylko niemożliwe, ale i niepotrzebne. Odwzorowanie „nieostre” przez pominięcie szeregu zmiennych czyni teorią uniwersalną. Tak zdjęcie nieostre nie pozwala stwierdzić, czy to p. Smith, czy p. Kowalski, ale pozwala jeszcze stwierdzić, że to człowiek. Dla Marsjanina, który chce wiedzieć, jak wygląda człowiek, zdjęcie nieostre jest cenniejsze od portretu p. Smitha, inaczej gotów uznać, że wszyscy ludzie mają taki kartoflowaty nos, rzadkie zęby i podsiniaczone lewe oko. W konkluzji: wszelka informacja zakłada istnienie adresata. „Informacja w ogóle” nie istnieje. Adresatem „maszyny imitologicznej” jest cywilizacja, są jej uczeni. Dziś muszą sami wzbogacać, przez odsiew, informacyjną „rudę”. W przyszłości będą otrzymywali już tylko ekstrakt, i nie z faktów będą budowali teorie, ale z innych teorii (co po części zachodzi już dziś: nie ma teorii całkowicie izolowanych od innych).

Czytelnik oczekuje zapewne przedstawienia owej „hodowli informacji”, którą zapowiedzieliśmy już dawno. Zamiast tego, zajmiemy się istotą teorii naukowych. Wygląda na to, że robię wszystko, aby go zrazić do dalszej lektury. Proszę jednak zauważyć, czego właściwie chcemy. Mamy, ni mniej, ni więcej, zautomatyzować Naukę. Jest to zadanie przeraźliwe; nim się do niego zabierzemy, musimy naprawdę pojąć, co właściwie robi Nauka. To, cośmy powiedzieli przed chwilą, było tylko pierwszym, metaforycznym przybliżeniem. Metafory wymagają jednak przekładu na język ścisły. Przykro mi prawdziwie, ale to konieczne. A zatem:

Mamy wynaleźć urządzenie, które zbierałoby informację, uogólniało ją w sposób analogiczny do tego, w jaki czyni to uczony, i przedstawiało fachowcom rezultaty tych dociekań. Urządzenie zbiera fakty, uogólnia je, sprawdza prawomocność uogólnienia na nowym materiale faktów, i ten „produkt końcowy”, już po „kontroli technicznej”, opuszcza „fabrykę”.

Urządzenie wytwarza więc teorie. Teoria, w rozumieniu naukoznaw—czym, jest zbudowanym z symboli, a stanowiącym strukturalny równoważnik realnego zjawiska systemem, przekształcalnym przy użyciu reguł, nic nie mających ze zjawiskiem wspólnego, w taki sposób, że kolejne przekroje toru zjawiska (jego następujące po sobie w czasie stany) pokrywają się w zakresie — zmiennych — przez ową teorię uwzględnianych — z wartościami tych zmiennych, wywiedlnymi dedukcyjnie z teorii[ix].

Teoria odnosi się nie do pojedynczego zjawiska, lecz do klasy zjawisk. Elementy klasy mogą istnieć współcześnie w przestrzeni (kule bilardowe na stole) albo po sobie w czasie (kolejne położenia tej samej kuli bilardowej w czasie). Im klasa liczebniejsza, tym „lepsza” teoria, bo tym bardziej uniwersalne jej zastosowanie.

Teoria może nie mieć żadnych sprawdzalnych konsekwencji (ogólna teoria pola Einsteina). Dopóki nie uda się z niej takich konsekwencji wyprowadzić, jest ona nieużyteczna. Nie tylko jako narzędzie realnego działania, ale i jako narzędzie poznania. Teoria bowiem musi mieć „wejście” i „wyjście”, aby była użyteczna: „wejście” dla faktów, które uogólnia, a „wyjście” dla faktów, które przepowiada (przez co będzie ją można . sprawdzić). Jeżeli ma tylko wejście, jest tak samo metafizyczna, jak gdyby nie miała ani wejścia, ani wyjścia. Rzeczywistość jest mniej piękna, tj. mniej prosta. „Wejścia” jednych teorii są „wyjściami” innych. Istnieją mniej i bardziej ogólne teorie, ale — w perspektywie rozwoju — wszystkie winny stanowić taką całość hierarchiczną, jaką jest np. organizm. Teoria bioewolucji jest „połączona” z podrzędniejszymi — dla niej — teoriami rodem z chemii, z geologii, z zoologii, botaniki, a sama znów jest podrzędna względem teorii samoorganizujących się układów, której wypadek szczególny stanowi.

Obecnie istnieją dwa ujęcia teoryj: komplementarne i redukcyjne. Komplementarne oznacza, że to samo zjawisko, tę samą klasę zjawisk, można „wyjaśniać” dwiema różnymi teoriami, przy czym praktyka decyduje o tym, kiedy i jak którą teorię należy stosować. Ujęcia komplementarne stosuje się np. w mikrofizyce (elektron jako fala i jako cząsteczka). Ale niektórzy sądzą, że taki stan jest przejściowy i że należy dążyć zawsze do ujęć redukcyjnych. Zamiast dopełniać jedną teorię drugą, trzeba skonstruować taką, która tamte zjednoczy, sprowadzi jedną do drugiej lub obie do jakiejś jeszcze bardziej ogólnej (na tym polega „redukcja”). Tak np. sądzi się, że zjawiska życia można zredukować do procesów fizyko–chemicznych. Ale ten punkt widzenia jest dyskusyjny.

Teoria jest tym bardziej wiarygodna, im więcej sprawdza się jej różnorodnych konsekwencji. Teoria może być zupełnie wiarygodna, ale prawie bezwartościowa (trywialna, np. „wszyscy ludzie są śmiertelni”).

Żadna teoria nie uwzględnia wszystkich zmiennych zjawiska. Nie znaczy to, abyśmy potrafili wyliczyć dowolną ilość tych zmiennych w każdym wypadku, ale raczej, że nie znamy wszystkich stanów zjawiska.

Teoria może jednak przewidzieć istnienie nowych wartości zmiennych już ustalonych. Jednakże nie w ten sposób, aby zawsze precyzowała dokładnie, co to są za zmienne nowo odkryte i gdzie ich szukać. „Wskazywanie” na te nowe zmienne może być „schowane” w jej algorytmie i trzeba się dobrze znać na rzeczy, ażeby się zorientować, że gdzieś jest zakopany skarb. W ten sposób zbliżamy się do strefy mglistych i tajemniczych pojęć, w rodzaju „intuicji”. Teoria jest bowiem informacją strukturalną, która w zasadzie mogłaby zostać wybrana spośród gigantycznej ilości struktur do pomyślenia, jakim w Naturze nic nie odpowiada, przy czym do owego wyboru doszłoby po kolejnym obaleniu jej niezliczonych konkurentek („Ciała przyciągają się zgodnie z sześcianem średnicy; zgodnie z kwadratem odległości pomnożonym przez iloraz masy;” itd., itp.). W rzeczywistości tak się nie dzieje. Uczeni nie pracują jedynie na ślepo, metodą prób i błędów, lecz posługują się domysłem i intuicją.

Jest to zagadnienie z tak rwanej „psychologii postaci”. Nie umiem opisać twarzy mego znajomego tak, abyście go podług opisu natychmiast poznali na ulicy. Mimo to sam potrafię poznać go natychmiast. Twarz jego jest więc, w rozumieniu psychologii postrzeżeń zmysłowych, pewną „postacią” Gestalt Nieraz też jakiś człowiek przypomina nam kogoś innego, ale nie zawsze umiemy powiedzieć, czym właściwie. Żadną częścią ciała czy twarzy wziętą z osobna — całością, układem, harmonią wszystkich rysów i ruchów, więc znowu „postacią”. Otóż ten typ uogólniającego postrzegania nie odnosi się tylko do sfery wizualnej. Dotyczyć może wszystkich zmysłów. Melodia zachowuje „postać” niezależnie od tego, czy zaświstana na palcu, czy zagrana przez orkiestrę dętą, czy wystukana palcem na pianinie. Takich sposobów rozpoznawania „postaci” kształtów, dźwięków itp., może doświadczyć każdy. Uczony–teoretyk, otrzaskany z abstrakcyjną aparaturą formalno–symboliczną teoryj, wśród których spędza życie, zaczyna, jeśli jest tęgim uczonym, postrzegać owe teorie jako pewne „postacie”, naturalnie bez twarzy i rysów, i dźwięków; są to jakieś konstrukcje abstrakcyjne w jego umyśle. Otóż może mu się udać odkrycie podobieństwa między „postaciami” dwu dotąd zupełnie nie związanych teorii, albo też zestawiając je z sobą, pojmie, że one są wypadkami szczególnymi jeszcze nie istniejącego uogólnienia, które należy skonstruować.

To, cośmy powiedzieli, jest naturalnie bardzo prymitywne. Wrócimy jeszcze do tego zagadnienia, a raczej ono do nas, kiedy zechcemy uruchomić „hodowlę informacji”.

Zabawimy się teraz w następującą grę. Bierzemy dwu matematyków, z których jeden będzie Uczonym, a drugi — Naturą. Natura z przyjętych założeń wyprowadza pewien skomplikowany system matematyczny, który Uczony ma odgadnąć, tj. powtórzyć. Dzieje się to tak, że Natura siedzi w jednym pokoju i od czasu do czasu pokazuje Uczonemu przez okienko kartkę z kilkoma liczbami, odpowiadającymi przemianom, które zachodzą na danym etapie konstruowania przez Naturę jej systemu. Można sobie wyobrazić, że Natura jest gwiazdowym niebem, a Uczony — pierwszym na świecie astronomem. Uczony zrazu nie wie nic, tj. nie dostrzega między liczbami („między ruchami ciał niebieskich”) żadnego związku, ale po jakimś czasie coś mu świta. Wreszcie zaczyna próbować, w ten sposób, że sam, ze swej strony, buduje jakiś system matematyczny i czeka, czy liczby, które za chwilę pokaże mu przez okienko Natura, będą zgodne z oczekiwaniem. Okazuje się, że liczby, które pokazuje Natura, są inne; Uczony znów próbuje, a jeśli jest dobrym matematykiem, po jakimś czasie uda mu się wpaść na właściwy trop, więc skonstruuje dokładnie taki sam system matematyczny, jakim się posługuje Natura.

W tym wypadku wolno nam mówić, że to są naprawdę dwa takie same systemy, czyli że Natura uprawia matematykę analogiczną do matematyki Uczonego. Powtarzamy ową grę ze zmienionymi regułami. Natura w dalszym ciągu pokazuje Uczonemu liczby (powiedzmy, parami), ale nie wynikają one z systemu matematycznego. Są one każdorazowo stwarzane przy użyciu jednej z pięćdziesięciu operacji, których wykaz dajemy Naturze. Pierwsze dwie liczby może Natura wybrać całkiem dowolnie. Następnych już nie: bierze jedną z reguł przekształcania, zawartych w spisie — dowolną —dokonuje nakazanego nią dzielenia, mnożenia, potęgowania lub tp., wynik pokazuje Uczonemu, wybiera inną regułę, znów przekształca (poprzednie) wyniki, znów pokazuje rezultat itd. Są operacje nakazujące zaniechanie wszelkiej zmiany. Są operacje powiadające, że jeśli Naturę swędzi lewe ucho, należy coś odjąć, a jeżeli nic nie swędzi — wyciągnąć pierwiastek. Ponad wszystkim są jeszcze dwie operacje ważne zawsze. Natura musi za każdym razem tak uszeregować oba wyniki, aby pierwsza liczba pokazana była mniejsza od drugiej, poza tym zaś przynajmniej w jednej z liczb musi się zawsze znajdować zero obok cyfry nieparzystej.

Aczkolwiek wyda się to może dziwne, generowany w ten sposób ciąg liczbowy będzie przejawiał swoiste regularności i regularności te Uczony będzie mógł odkryć, tzn. po pewnym czasie będzie umiał przewidywać, ale naturalnie tylko z przybliżeniem, jakie liczby pojawią się jako następne. Ponieważ jednak prawdopodobieństwo właściwego określenia wartości każdej pary następnych liczb maleje gwałtownie, w miarę jak prognoza usiłuje ogarnąć nie tylko najbliższy etap, ale cały ich szereg, Uczony będzie musiał stworzyć kilka systemów przepowiadania. Przepowiednia pojawienia się zera obok cyfry nieparzystej jest zupełnie pewna; ukazują się w każdej parze liczb, choć w różnych miejscach. Pewne jest też, że pierwsza liczba jest zawsze mniejsza od drugiej. Wszystkie inne zmiany podlegają już rozmaitym rozkładom prawdopodobieństwa. Natura przejawia zatem pewien „ład”, ale to nie jest „ład” jednego tylko rodzaju. Można w nim wykryć rozmaitego rodzaju regularności, zależy to zaś w znacznej mierze od czasu trwania gry. Natura wykazuje jakby istnienie pewnych „niezmienników”, nie podległych transformacjom, jej stany przyszłe, w czasie niezbyt odległe, można przewidywać z określonym prawdopodobieństwem, ale stanów znacznie odległych przewidzieć nie można.

W takiej sytuacji Uczony mógłby sądzić, że Natura stosuje wprawdzie jeden system, ale z taką ilością zmiennych operatorów, że on go odtworzyć nie umie; zapewne jednak przychyli się raczej do tezy, że Natura działa probabilistycznie. Zastosuje więc odpowiednie metody rozwiązań przybliżonych, typu „Monte Carlo”. Najciekawsze jest jednak, że Uczony może podejrzewać istnienie „hierarchii poziomów natury” (liczby; ponad nimi operacje; ponad nimi — superoperacje szeregowania i „zerowania”). Mamy więc i rozmaite poziomy, i „zakazy” (pierwsza liczba nigdy nie może być większa od drugiej), czyli „prawa Natury”, ale cały ten ewoluujący system liczbowy nie jest jednolitym systemem matematycznym jako struktura formalna. To jednak tylko część problemu. Jeśli gra będzie trwała bardzo długo, Uczony zorientuje się w końcu, że Natura dokonuje pewnych operacji częściej niż innych (a to dlatego, ponieważ „Natura” też jest człowiekiem i musi wykazać predylekcję dla pewnych operacji, człowiek bowiem nie może się zachowywać zupełnie chaotycznie, „losowo”). Uczony, zgodnie z zasadami gry, obserwuje tylko liczby i nie wie, czy wytwarza je jakiś proces naturalny, maszyna, czy też inny człowiek. Jednakże za operacjami transformacji zaczyna się domyślać działania czynnika jeszcze wyższego rzędu, który decyduje o tym, jaka operacja zostanie zastosowana. Czynnik ten (człowiek udający Naturę) ma ograniczony wybór działań, niemniej poprzez szeregi liczbowe zacznie się wyłaniać system jego predylekcji (np. częściej stosuje operację nr 4 aniżeli nr 17 itd.), czyli jednym słowem, właściwe jego psychice cechy dynamiczne. Ale jest jeszcze jeden czynnik, względnie niezawisły, ponieważ niezależnie od tego, które operacje Natura lubi bardziej od innych, od czasu do czasu, natrafiając na tę operację, której wynik zależy od świądu ucha, postępuje tak albo siak. Otóż ten świąd już nie jest związany z dynamiką jego świadomości, ale raczej z peryferycznymi procesami molekularnymi jego receptorów skórnych. Uczony bada więc, w ostatniej instancji, nie tylko procesy mózgowe, ale nawet to, co się dzieje w pewnym odcinku skóry człowieka, który udaje „Naturę”!

Oczywiście, mógłby przypisać „Naturze” cechy, których ona nie posia da. Mógłby np. sądzić, że „Natura” lubi zero obok nieparzystej, podczas gdy w istocie zmuszona jest ten rezultat wprowadzać, bo ma taki rozkaz. Przykład bardzo prymitywny, ale wskazuje, że Uczony może rozmaicie interpretować obserwowaną „rzeczywistość liczbową”. Może ją bowiem rozpatrywać jako mniejszą lub większą ilość układów sprzężonych. Jakikolwiek zbuduje model matematyczny zjawiska, mowy nie ma o tym, żeby każdy element jego „teorii Natury”, każdy jej symbol, miał dokładny odpowiednik po drugiej stronie muru. Jeśli nawet po roku pozna wszystkie reguły przekształceń, to nigdy nie zdoła stworzyć „algorytmu swędzącego ucha”. A tylko w takim wypadku można by mówić o tożsamości, czy też o izomorfizmie Natury i Matematyki.

Tak zatem możliwość matematycznego odwzorowywania Natury nie implikuje bynajmniej jej „matematyczności”. Nie o to nawet chodzi, czy jest to hipoteza prawdziwa: jest ona zupełnie zbędna.

Omówiwszy obie strony procesu poznania („naszą”, tj. teorii, i „tamtą”, tj. Natury), bierzemy się wreszcie do automatyzowania procesów poznawczych. Najprostsze wydawałoby się stworzenie „syntetycznego uczonego”, pod postacią jakiegoś „supermózgu elektrycznego”, połączonego zmysłami, „perceptronami”, ze światem zewnętrznym. Propozycja taka sama się narzuca, bo tyle się mówi o elektronowym imitowaniu procesów myślowych, o doskonałości i chyżości działań, jakich dokonują już teraz maszyny liczbowe. Sądzę jednak, że droga nie wiedzie przez plany budowy „elektronowego nadczłowieka”. Jesteśmy wszyscy zafascynowani złożonością i potęgą mózgu ludzkiego, przez co maszyny informacyjnej nie umiemy sobie wyobrazić inaczej aniżeli jako analogu układu nerwowego. Mózg bez wątpienia jest wspaniałym tworem Natury. Kiedy już złożyłem mu tymi słowy należny hołd, chciałbym dodać, że jest on systemem, pokonującym rozmaite zadania z bardzo nierównomierną sprawnością.

Ilość informacji, jaką może „przerobić” mózg narciarza w slalomie jest daleko większa od jej ilości „przerobionej” w tym samym czasie przez świetnego matematyka. Przez ilość informacji rozumiem tu zwłaszcza ilość zmiennych, które reguluje, tj. nad którymi „panuje” mózg slalomisty. Dość zmiennych kontrolowanych przez narciarza jest wręcz nieporównywalna z ich ilością, znajdującą się w „selekcyjnym polu” mózgu matematyka. Wynika to stąd, że olbrzymia większość regulacyjnych interwencji, jakich dokonuje mózg slalomisty, jest zautomatyzowana, znajduje się poza polem świadomości, matematyk natomiast nie może osiągnąć takiego stopnia automatyzacji formalnego myślenia (chociaż pewien jej stopień dobry matematyk uzyskać potrafi). Cały formalizm matematyczny jest jak gdyby płotem, którego trzymając się, niewidomy może iść pewnie w obranym kierunku. Po co ten „płot” metody dedukcyjnej? Mózg posiada małą „głębię logiczną”, jako regulator. „Głębia logiczna” (ilość kolejnych etapów następujących po sobie operacji) wywodu matematycznego jest bez porównania większa od „głębi logicznej” mózgu, który nie myśli abstrakcyjnie, lecz, zgodnie ze swym przeznaczeniem biologicznym, działa jako urządzenie sterujące ciałem (slalomista na trasie zjazdowej).

Ta pierwsza „głębia” nie jest bynajmniej powodem do chwały, wprost przeciwnie. Wynika ona stąd, że zjawisk o naprawdę wielkiej złożoności mózg ludzki nie jest w stanie skutecznie regulować, o ile to nie są procesy jego ciała. Bo jako regulator ciała, mózg zawiaduje ogromną ilością zmiennych: idącą na pewno w setki, a prawdopodobnie nawet w tysiące. Ale przecież — powie ktoś — każde zwierzę posiada mózg, sprawnie zawiadujący jego ciałem. Mózg człowieka oprócz tego zadania potrafi rozwiązywać niezliczoną ilość innych; wystarczy zresztą zestawić rozmiary mózgu małpy z mózgiem człowieka, aby zorientować się, choć w grubym przybliżeniu, o ile więcej masy mózgowej człowieka „zaadresowane jest” do rozwiązywania zadań intelektualnych!

Otóż nie ma co dyskutować nad wyższością intelektualną człowieka względem małpy. Mózg ludzki jest oczywiście bardziej złożony; ale znaczna część tej złożoności „nie nadaje się” do rozwiązywania problemów teoretycznych, bo zawiaduje procesami cielesnymi: do tego jest przeznaczona. Problem zatem wygląda tak: to, co jest mniej złożone (ta część systemu neuronowego mózgu, która stanowi podłoże procesów intelektualnych) usiłuje posiąść informację o tym, co jest bardziej złożone (o całym mózgu). Nie jest to niemożliwe, ale jest bardzo trudne. W każdym razie nie jest to niemożliwe pośrednio (jeden człowiek w ogóle by nawet sformułować nie mógł zadania). Proces poznania jest społeczny: następuje niejako „sumowanie się” złożoności „intelektualnej” wielu mózgów ludzkich badających to samo. Ale ponieważ jest to, mimo wszystko, „sumowanie się” w cudzysłowie — bo wszak te poszczególne umysły nie łączą się w jeden system — problemu na razie nie rozwiązaliśmy.

Dlaczego poszczególne umysły nie łączą się w jeden system? Czy nauka nie jest właśnie takim nadrzędnym systemem? Jest nim, ale tylko w przenośni. Jeśli cokolwiek rozumiem, rozumiem to „coś” całe, od początku do końca. Nie jest możliwe, ażeby umysły poszczególnych ludzi, łącząc się, utworzyły pewne „nadrzędne pole intelektualne”, w którym sformułowana zostanie prawda, jakiej żaden z osobna wzięty mózg nie pomieś—c i. Uczeni bez wątpienia współdziałają, ale w ostatniej instancji jakiś jeden człowiek musi sformułować rozwiązanie zadania, nie zrobi tego przecież jakiś „chór uczonych”.

Czy jest tak na pewno? Czy nie było raczej tak, że pierwej sformułował coś Galileusz, że przejął to od niego i rozwinął Newton, że dodało niejedno kilku innych, że Lorentz stworzył swą transformację, a dopiero, ująwszy to wszystko razem, Einstein scalił owe dane i stworzył teorię względności? Rozumie się, że tak było, ale to nie ma nic do rzeczy. Wszystkie teorie operują niewielką ilością zmiennych. Teorie bardziej uniwersalne zawierają nie olbrzymią ilość zmiennych, a jedynie są zastosowalne w olbrzymiej ilości wypadków. Jak właśnie teoria względności.

My jednak mówimy o czymś innym. Mózg potrafi doskonale regulować olbrzymią ilość zmiennych ciała, do którego „jest podłączony”. Zachodzi to automatycznie lub na wpół automatycznie (kiedy chcemy wstać i nie troszczymy się o resztę, tj. o cały kompleks kinematyczny, tym „rozkazem” uruchomiony). Myślowo natomiast, tj. jako maszyna do regulowania zjawisk poza tym obszarem, jest on urządzeniem mało wydajnym, a co ważniejsza, nie może się uporać z sytuacjami, w których trzeba jednocześnie uwzględniać znaczną ilość zmiennych. Dlatego np. nie potrafi regulować zjawisk biologicznych lub społecznych w sposób ścisły (w oparciu o ich algorytmizację). Zresztą nawet procesy daleko mniej złożone (klimatyczne, atmosferyczne) po dziś dzień urągają jego regulacyjnym zdolnościom (rozumianym teraz tylko jako umiejętność dokładnego przewidywania stanów przyszłych w oparciu o znajomość poprzednich).[x]

Mózg jest, wreszcie, w najbardziej „abstrakcyjnej” swej działalności pod znacznie większymi wpływami ciała (którego jest zarazem panem i sługą, dzięki dwukierunkowym sprzężeniom zwrotnym), aniżeli zazwyczaj zdajemy sobie z tego sprawę. Będąc, „za pośrednictwem” owego ciała, podłączonym z kolei do świata otaczającego, wszystkie tego świata prawidłowości wyrażać zaczyna zawsze poprzez zjawiska doznań cielesnych (stąd poszukiwanie tego, kto trzyma na swych barkach ziemię, tego, co „przyciąga” kamienie do Ziemi itp.).

Przepustowość mózgu jako kanału informacyjnego jest maksymalna w zakresie zjawisk cielesnych. Natomiast nadmiar informacji wpływającej z zewnątrz, np. jako tekst czytany, gdy przekroczy jakiś dziesiątek bitów na sekundę, już go blokuje.

Astronomia, jedna z pierwszych uprawianych przez człowieka dyscyplin, do dziś nie dała rozwiązania „problemu wielu ciał” (mas grawitujących, które wzajem na siebie wpływają). A przecież jest ktoś, kto problem ten potrafi rozwiązać. Natura czyni to „bez matematyki”, samym działaniem owych ciał. Zachodzi pytanie, czy nie dałoby się zaatakować „informacyjnego kryzysu” w podobny sposób? Ależ to niemożliwe — słyszę. To postulat bezsensowny. Matematyzacja wszystkich nauk potęguje się, a nie maleje. Bez matematyki nie możemy nic.

Zgoda — ale ustalmy pierwej, o jaką „matematykę” idzie. Czy o tę, wyrażającą się formalnym językiem równań i nierówności, pisanych na papierze bądź utrwalanych w elementach dwójkowych wielkich maszyn elektronowych, czy też o taką, którą bez jakiegokolwiek formalizmu realizuje zapłodnione jajo? Jeśli jesteśmy skazani na pierwszą, grozi nam kryzys informacyjny. Jeśli jednak uruchomimy — dla naszych celów — drugą, sprawa może przybrać odmienny obrót.

Rozwój płodowy jest „symfonią chemiczną”, rozpoczynającą się w chwili, gdy jądro plemnika zespoli się z jądrem jaja. Wyobraźmy sobie, że udało się nam prześledzić ten rozwój, od zapłodnienia aż do powstania dojrzałego organizmu, na poziomie molekularnym i że chcemy go teraz przedstawić formalnym językiem chemii, takim samym, jakiego używamy przy przedstawianiu reakcji prostych, w rodzaju 2H+O = H2O. Jakby wyglądała taka „partytura embriogenezy”? Najpierw musielibyśmy obok siebie wypisać wzory wszystkich związków, stających na „starcie”. Potem zaczęłoby się wypisywanie odpowiednich przekształceń. Ponieważ organizm dojrzały zawiera na molekularnym poziomie około 1025 bitów informacji, wypadłoby napisać ilość formuł rzędu kwadrylionów. Dla wypisania tych reakcji nie starczyłoby powierzchni wszystkich oceanów i lądów razem wziętych. Zadanie jest zupełnie beznadziejne.

Mniejsza w tej chwili o to, jak z podobnymi problemami upora się embriologia chemiczna. Sądzę, że język biochemii będzie musiał ulec bardzo radykalnej przebudowie. Może powstanie jakiś formalizm fizyko–chemiczno–matematyczny. Ale to nie nasza rzecz. Przecież, jeśli komuś byłby „potrzebny” pewien żywy organizm, wcale nie trzeba owej pisaniny. Wystarczy wziąć plemnik i zapłodnić nim jajo, które po pewnym czasie „samo” przekształci się w „poszukiwane rozwiązanie”.

Warto się zastanowić, czy nie będziemy mogli zrobić czegoś analogicznego w dziedzinie informacji naukowej? Podjąć „hodowlę informacji”, krzyżować je z sobą, uruchomić ich „wzrost” taki, abyśmy w końcu otrzymali, jako „dojrzały organizm” —teorię naukową?

Jako model dla naszych prób proponujemy więc nie mózg ludzki, lecz inny twór ewolucji: plazmę rozrodczą. Ilość informacji przypadająca na jednostkę pojemności mózgu jest niezrównanie mniejsza od jej ilości zawartej w tej samej objętości plemnika. (Mówię o plemniku, a nie o jaju, ponieważ jego „gęstość” informacyjna jest większa). Oczywiście, potrzebny nam jest nie taki plemnik i nie takie prawa rozwoju genotypów, jakie stworzyła ewolucja. Jest to tylko punkt startu, a zarazem jedyny system materialny, na jakim możemy się oprzeć.

Informacje winny powstawać z informacji, jak organizmy — z organizmów. Winny się wzajemnie zapładniać, krzyżować, podlegać „mutacjom”, tj. zmianom niewielkim, jak również — nie znanym już genetyce — radykalnym przebudowom. Może będzie się to działo w jakich zbiornikach, gdzie reagować będą z sobą „informacjonośne molekuły”, w których określone wiadomości są tak zakodowane, jak cechy organizmu — w plazmie chromosomów? Może będzie to osobliwe „fermentowanie zaczynu informacyjnego”?

Ale entuzjazm nasz jest przedwczesny — wybiegliśmy zbyt daleko naprzód. Skoro mamy się uczyć u ewolucji, winniśmy zbadać, w jaki sposób gromadzi ona informację.

Informacja ta musi być, z jednej strony, stabilizowana, a z drugiej, plastyczna. Dla stabilizacji, tj. dla optymalnego przekazu informacyjnego, niezbędne są takie warunki, jak nieobecność zakłóceń w nadajniku, niski poziom szumu w kanale, trwałość znaków (sygnałów), łączenie informacji w jednolite, spójne człony oraz jej nadwyżka (nadmiarowość). Łączenie ułatwia wykrycie błędów i zmniejsza ich niszczące przekaz informacyjny wpływy, i temu samemu służy nadmiar informacji. Genotyp posługuje się tymi metodami tak samo, jak inżynier łączności. Podobnie też zachowuje się informacja przekazywana tekstem drukowanym czy pisanym. Winna być czytelna (nieobecność zakłóceń), nie ulegać zniszczeniu (gdy np. blaknie informacja drukarska), poszczególne litery łączone są w bloki (słowa), a te w jednostki nadrzędne (zdania). Informacja pisma jest też nadmiarowa, co poznajemy po tym, że tekst częściowo uszkodzony można odczytać.

Organizm realizuje ochronę informacji przed zakłóceniami podczas przechowania dobrą izolacją komórek rozrodczych, przekaz ich—precyzyjną mechaniką podziałów chromosomowych itp. Jest ona, dalej, blokowana w genach, a te w jednostkach nadrzędnych — chromosomach („zdaniach tekstu dziedziczności”). Nareszcie, każdy genotyp zawiera informację nadmiarową, co poznajemy po tym, że uszkodzenie jaja pozwala na wykształcenie nie uszkodzonego organizmu — oczywiście do pewnej granicy[xi]. W trakcie rozwoju informacja genotypowa przekształca się w fenotypową. Fenotypem zwiemy ten kształt ostateczny ustroju (tj. cechy morfologiczne na równi z fizjologicznymi, więc i funkcjami), który powstaje jako wypadkowa działania czynników dziedzicznych — genotypowych — oraz wpływów środowiska zewnętrznego.

Na modelu poglądowym genotyp to jakby pusty i skurczony balonik gumowy. Jeśli włożymy go do graniastego naczynia, balonik, którego „genotypową tendencją” było stać się kulą, przystosuje swój kształt do kształtów naczynia. Istotną bowiem cechą rozwoju organicznego jest jego plastyczność, wynikająca z działania „buforów regulacyjnych”, które są jak gdyby „wstawką amortyzującą” pomiędzy instrukcjami genotypowymi a wymaganiami środowiska. Potocznie mówimy, że organizm może żyć nawet w niezbyt sprzyjających warunkach, tj. takich, które wykraczają poza przeciętną programowania genotypowego. Roślina nizinna może rozwinąć się i w górach, lecz kształtem upodobni się do roślin górskich, czyli fenotyp jej się zmieni, ale genotyp nie, bo, przeniesione na równiny, ziarna jej wydadzą na powrót rośliny pierwotnego kształtu.

Jak odbywa się ewolucyjne krążenie informacji?

Zachodzi ono kołowo; ów system składa się z dwu kanałów. Źródłem informacji nadawanej w pierwszym kanale są organizmy dojrzałe’, podczas aktów rozrodu. Ale ponieważ nie wszystkie mogą się rozmnażać jednakowo, lecz głównie te, które są uprzywilejowane najlepszym przystosowaniem, cechy ich przystosowania, także i fenotypowe, biorą udział w „wyborze nadajników”. Dlatego za źródło tej informacji uważamy ostatecznie nie same organizmy rozmnażające się, lecz całą ich biogeocenozę, czyli biotop, to jest organizmy te wraz z ich środowiskiem (i innymi żyjącymi tam organizmami, bo i do ich obecności muszą się nasze organizmy przystosować). Ostatecznie informacja biegnie zatem od biogeocenozy, poprzez rozwój płodowy, do następnego pokolenia organizmów dojrzałych. To jest kanał embriogenetyczny przekazujący informację genotypową. Drugim kanałem, zwrotnym, płynie informacja od organizmów dojrzałych do biogeocenozy, ale już fenotypowa, ponieważ przekazana jest „na poziomie” całych osobników, a nie „na poziomie” komórek rozrodczych. Informacja fenotypowa jest to po prostu całokształt życiowej działalności organizmów (to, czym się żywią, jak się żywią, jak się przystosowują do biogeocenozy, jak ją zmieniają swym istnieniem, jak zachodzi dobór naturalny itd.)*.

A zatem w pierwszym kanale biegnie informacja zakodowana w chromosomach, na poziomie molekularnym, a kanałem zwrotnym biegnie informacja makroskopowa, fenotypowa, przejawiająca się w adaptacji, walce o byt i doborze płciowym. Fenotyp (organizm dojrzały) zawiera zawsze więcej infromacji od genotypu, ponieważ wpływy środowiska są informacją zewnątrzpochodną. Skoro krążenie informacji nie odbywa się na jednym poziomie, musi ona ulegać gdzieś takiej transformacji, żeby jeden jej „kod” był „tłumaczony” na drugi. Zachodzi to w procesie embriogenezy; ona jest właśnie „tłumaczem” z języka molekularnego na język organizmu. Tak mikroinformacja przechodzi w makroinformację.

W powyższym obiegu nie zachodzą żadne zmiany genotypowe, nie ma więc i ewolucji. Ewolucja powstaje dzięki spontanicznie zachodzącym „lapsusom” przekazu genotypowego.. Geny mutują bezkierunkowo, ślepo i losowo. Dopiero selekcja środowiska wybiera, tj. utrwala w następujących pokoleniach te, które zwiększają adaptację do środowiska, czyli szansę przetrwania. Antyentropijne, tj. kumulujące wzrost ładu działanie selekcji można imitować w maszynie cyfrowej. W braku takiej maszyny zabawimy się w „grę ewolucyjną”.

Gromadę dzieci dzielimy na grupy jednakowo liczne. Pierwsza grupa będzie pierwszym pokoleniem organizmów. „Ewolucja” rozpoczyna się w chwili, gdy każdemu dziecku pierwszej grupy wręczamy jego „genotyp”. Jest to paczka, w której znajduje się peleryna z folii oraz instrukcja. Jeśli się chce być bardzo dokładnym, można powiedzieć, że peleryna odpowiada materiałowi jaja (plazma), a instrukcja — chromosomom jądra. Z instrukcji „organizm” dowiaduje się, „jak się ma rozwinąć”. Polega to na tym, że wkłada pelerynę i ma przebiec przez korytarz, z bocznym, otwartym oknem. Za oknem stoi strzelec z pukawką, naładowaną grochem. Osobnik trafiony „ginie w walce o byt”, a więc nie może „się rozmnożyć”. Taki, który przebiegnie cało, wkłada pelerynę i instrukcję na powrót do paczki i tę „instrukcję genotypową” wręcza osobnikowi „następnego pokolenia”. Peleryny są różnego odcienia szarości, od bardzo jasnych do niemal czarnych, a ściany korytarza są ciemnoszare. Strzelec trafi biegnącego tym łatwiej, im bardziej sylwetka odcina się od tła. Największą szansę ,,przeżycia w walce o byt” mają ci, których peleryna ma odcień podobny do ściany korytarza. W ten sposób środowisko działa jak filtr, odsiewając najgorzej doń przystosowanych. Wykształca się „mimikra”, tj. upodobnianie do barwy otoczenia. Zarazem zmniejsza się pierwotny, szeroki rozrzut barw osobniczych.

Nie wszystkie jednak szansę przeżycia zawdzięcza osobnik „genotypowi”, tj. barwie peleryny. Obserwując bowiem losy poprzedników albo po prostu orientując się w sytuacji, pojmuje, że pewne sposoby zachowania (bieg szybki, bieg w postaci skulonej itp.) też utrudniają strzelcowi trafienie, a tym samym zwiększają szansę „przeżycia”. W ten sposób osobnik zyskuje, dzięki środowisku, informację niegenotypową, której w instrukcji nie było. Jest to informacja fenotypowa. Stanowi ona jego osobisty nabytek. Ale informacji fenotypowej się nie dziedziczy, bo przekazuje się „następnemu pokoleniu” tylko „komórkę rozrodczą”, tj. paczkę z peleryną i instrukcją. Jak z tego widzimy, cechy nabyte w rozwoju osobniczym nie są dziedziczone. Po pewnej liczbie „pasaży” przez środowisko „przeżywają” tylko ci, których genotyp i fenotyp (barwa peleryny i sposób zachowania się) rokują największe szansę ocalenia. Grupa, zrazu różnorodna, ujednolica się. Przeżywają tylko najszybsi, najzręczniejsi i odziani w peleryny ochronnego koloru. Jednakże każde następne „pokolenie” otrzymuje tylko informację genotypową; fenotypowa musi sobie stworzyć samo.

Niech teraz, wskutek fabrycznego błędu produkcji, pojawią się wśród peleryn plamiste. Ten wpływ „szumu” oznacza mutację genotypową. Plamiste peleryny odcinają się wyraźnie od tła, dlatego „mutanty” mają bardzo małą szansę „przeżycia”. Zostają więc rychło „zgładzone” przez strzelca z pukawką, którego można sobie interpretować jako drapieżcę. Ale jeśli ściany korytarza okleimy plamistą tapetą (zmiana środowiska), sytuacja raptowanie się zmieni: teraz tylko mutanty będą przeżywać, i ta nowa informacja „dziedziczna” wnet wyprze dawniejszą z całej populacji.

Akt wdziania peleryny i czytania instrukcji jest, jakeśmy rzekli, odpowiednikiem embriogenezy, w której rozwijają się funkcje wraz z kształtem organizmu. Cała ta czynność oznacza przesył informacji genotypowej embriogenetyczny pierwszym kanałem informacyjnym (od biogeocenozy do osobników dojrzałych). Uczenie się najlepszego sposobu przebiegnięcia przez środowisko, to zdobywanie informacji fenotypowej. Każdy osobnik, który przebył szczęśliwie krytyczne miejsce, niesie już dwa rodzaje informacji: dziedziczną, genotypową, i nie dziedziczącą się, fenotypowa. Ta ostatnia znika na zawsze ze sceny ewolucyjnej razem z nim. Informacja genotypowa, która przeszła przez „filtr”, zostaje przekazana z rąk do rąk i to jest jej przesył zwrotny (drugim kanałem).

Informacja więc i w naszym modelu biegnie od biogeocenozy do organizmów na poziomie „mikroskopowym” (otwarcie wręczonej paczki, zapoznanie się z instrukcją itd.), natomiast od organizmów z powrotem do biogeocenozy — na poziomie makroskopowym (ponieważ sama paczka, tj. genotyp, nie przejdzie przez środowisko: musi przejść cały osobnik, będący jej „nosicielem”).

Biogeocenoza w tej zabawie — to cały korytarz wraz z biegnącymi (środowisko, w którym żyje populacja).

Niektórzy biologowie, jak Szmalhauzen, uważają, że wprawdzie krążenie informacji zachodzi w przedstawiony sposób, ale że organizm dojrzały nie zawiera jej więcej, niż zawierał genotyp, czyli że wzrost informacji, spowodowany grą sprzężeń między osobnikiem a środowiskiem w jego życiu jest tylko pozorny i wynika z działalności regulacyjnych mechanizmów, które organizm wytworzył dzięki informacji genotypowej. Plastyczność tych reakcji stwarza złudzenie, jakoby doszło do realnego wzrostu informacji zawartej w organizmie.

Otóż jeśli chodzi o informację genotypową, to ta zasadniczo pozostaje niezmieniona, dopóki nie ma mutacji. Natomiast informacja fenotypowa jest większa od genotypowej; odmienny punkt widzenia sprzeczny jest z teorią informacji, a nie z teoriami biologicznymi. Te sprawy trzeba rozróżniać. Jeśli się ustali zbiór odniesienia, to ilość informacji będzie dana przebiegiem zjawiska, i nie można odejmować stamtąd pewnej jej ilości jako „informacji pozornej”. To, czy ona powstaje dzięki działaniu regulatorów, czy w inny sposób, nie ma żadnego znaczenia dopóty, dopóki pytamy o Jej ilość w pewnym przedmiocie materialnym, jakim jest organizm, ze względu na zbiór odniesienia.

Nie chodzi o spór akademicki: jest to sprawa najpierwszej dla nas wagi. Pogląd zacytowany sugeruje, jakoby „szum” środowiskowy mógł jedynie zubożyć informację fenotypowa (i tak właśnie twierdzi Szmalhauzen). Tymczasem szum może być źródłem informacji. Przecież i mutacje są takim „szumem”. Jak wiadomo,—ilość informacji zależy od stopnia jej prawdopodobieństwa. Zdanie „bór jest pierwiastkiem” zawiera jej określoną ilość. Otóż jeśli mucha przypadkowo pozostawi po sobie czarną kropkę nad literą „o” w słowie „bór” i zdanie będzie brzmiało „bór jest pierwiastkiem”, to z jednej strony mamy zakłócenie przekazu informacyjnego szumem, a więc spadek informacji, ale z drugiej mamy równocześnie wzrost informacji, ponieważ to drugie zdanie jest o wiele mniej prawdopodobne od pierwotnego!

Zachodzi tu bowiem równoczesny wzrost informacji selektywnej i spadek informacji strukturalnej. Pierwsza odnosi się do zbioru zdań możliwych (typu „x jest pierwiastkiem”), a druga do zbioru sytuacji realnych, których zdania są tylko odwzorowaniem. Zbiór zdań odwzorowujących sytuacje realne w tym wypadku składa się ze zdań takich, jak „azot jest pierwiastkiem… tlen jest pierwiastkiem…” itd. Zbiór ten liczy tyle zdań, ile naprawdę jest pierwiastków, więc około stu. Dlatego, gdy nic nie wiemy poza tym, z jakiego zbioru wybrane zostanie to zdanie, które otrzymamy, prawdopodobieństwo nadejścia określonego zdania wynosi 1/100.

Drugi zbiór zawiera wszystkie wyrazy danego języka, podstawiane do zdania „x jest pierwiastkiem” („parasol jest pierwiastkiem… noga jest pierwiastkiem” itp.). Liczy więc tyle zdań, ile jest słów w języku, a zatem kilkadziesiąt tysięcy. Informacja jest odwrotnością prawdopodobieństwa, a zatem każde z takich zdań jest tysiące razy bardziej nieprawdopodobne, czyli zawiera odpowiednio więcej informacji. (Nie tysiące, ponieważ informacja jest logarytmem, ale to nie ma tutaj zasadniczego znaczenia).

Jak z tego widzimy, pojęciem informacji trzeba się posługiwać ostrożnie. Analogicznie bowiem i mutację można rozpatrywać jako spadek informacji (strukturalnej) i jako wzrost informacji (selektywnej). O tym, jak będzie „rozpatrywana”, decyduje środowisko biogeocenotyczne. W normalnych warunkach będzie ona zmniejszeniem informacji strukturalnej odnoszącej się do realnego świata i tym samym, mimo że informacja selektywna wzrosła, organizm ulegnie zagładzie, jako gorzej przystosowany. Jeśli warunki się zmienią, ta sama informacja mutacji spowoduje wzrost zarówno ilości informacji strukturalnej, jak i selektywnej.

Należy dodać, że szum może być źródłem informacji tylko w bardzo specyficznych warunkach: kiedy ta informacja jest elementem zbioru, którego wszystkie elementy odznaczają się znaczną organizacją (złożonością). Zmiana wskutek działania szumu słowa „bór” na „bór” jest przejściem od jednej organizacji do innej, natomiast zmiana słowa „bór” na plamę atramentową jest unicestwieniem wszelkiej w ogóle organizacji. Mutacja jest też zmianą jednej organizacji na inną, chyba że chodzi o mutację genową letalną, która w trakcie rozwoju zabija cały organizm.

Zdanie może być prawdziwe lub fałszywe, natomiast informacja genotypowa jest przystosowawcza lub nieprzystosowawcza. To jest miara w obu wypadkach strukturalna.’ Natomiast jako informacja selektywna, zdanie może być tylko mniej lub bardziej prawdopodobne, ze względu na zbiór, z którego je wybieramy. Podobnie, jako informacja selektywna, mutacja może być mniej lub bardziej prawdopodobna (jest tej informacji zatem mniej lub więcej).

Informacja fenotypowa jest z reguły strukturalna, ponieważ powstaje pod wpływem działania środowiska, organizm zaś odpowiada na te wpływy reakcjami adaptacyjnymi. Więc można dodać informację strukturalną fenotypowa, zewnątrzpochodną, do strukturalnej informacji genotypowej, i w ten sposób uzyskamy pełną sumę informacji strukturalnej, jaką zawiera dojrzały osobnik. Oczywiście, to nie ma nie wspólnego ze sprawą dziedziczenia: dziedziczy się wyłącznie informacja genotypowa.

Ustalenie bilansu informacyjnego jest w praktyce biologa bardzo trudne, ponieważ tylko teoretycznie da się przeprowadzić ostrą granicę między tym, co genotypowe, a tym, co fenotypowe, właśnie ze względu na obecność mechanizmów regulacyjnych. Gdyby na dzielące się jajo w ogóle nie działały

żadne wpływy zewnętrzne, można by jego rozwój nazwać „dedukcyjnym”, w tym sensie, że informacja genotypowa ulega przekształceniom, w których nie zachodzi żaden zysk informacyjny. Podobnie „rozwija się” system matematyczny, zrazu przedstawiony przez założenia wstępne („jądro aksjomatów”) oraz reguły przekształceń. Jedno i drugie razem można by nazwać „genotypem systemu matematycznego”. Jednakże rozwój płodowy w tej pomyślanej izolacji nie jest możliwy, bo na jajo zawsze jakieś wpływy działają, chociażby siła ciążenia. Wiadomo, jaki ona ma kształtujący wpływ np. przy rozwoju roślin.

W zakończeniu dodajmy, zanim przystąpimy wreszcie do właściwego projektowania maszyny „autognostycznej”, czy też „cybergnostycznej”, że istnieją rozmaite typy regulacji. Jest regulacja ciągła, która baczy stale na wartości kontrolowanych parametrów, i regulacja nieciągła (regulacja uchybami), która działa dopiero po przekroczeniu przez parametry kontrolowane pewnych wartości krytycznych. Organizm stosuje oba typy regulacji. Temperatura np. jest regulowana raczej w sposób ciągły, a poziom cukru we krwi — w sposób nieciągły. Mózg można też uważać za regulator, posługujący się obiema metodami. Ale te sprawy przedstawił Ross Ashby w swojej Konstrukcji mózgu (Design for a brain) tak doskonale, że nie ma potrzeby ich powtarzania.

Rozwój osobniczy, to konfrontacja dwu rodzajów informacji, zewnętrznej i wewnętrznej. Tak powstaje fenotyp organizmu. Organizm służy jednak sobie i ewolucji, tj. ma istnieć oraz utrzymywać gatunek. Informacyjne „ustroje” hodowli winny służyć nam. Tak więc, prawo bioewolucji, które powiada, że przeżywa najlepiej przystosowany do środowiska, winniśmy w naszej hodowli zastąpić prawem „przeżywa to, co najściślej wyraża środowisko”.

Wiemy już, co oznacza „wyrażanie środowiska”. Jest to zbieranie informacji strukturalnej, a nie selektywnej. Być może, powtórzenia są już zarówno zbędne, jak i nużące, ale powiedzmy to raz jeszcze. Inżynier łączności bada prawdopodobieństwo nadejścia informacji w taki sposób, że zdanie stuliterowe zawiera dlań jednakową jej ilość bez względu na to, czy wzięto je z gazety, czy z teorii Einsteina. Ten aspekt jest najważniejszy przy przesyle informacji. Natomiast o ilości informacji można też mówić w takim sensie, że zdanie opisuje (odwzorowuje) pewną sytuację mniej lub bardziej prawdopodobną. Wtedy informacyjna zawartość zdania zależy nie od prawdopodobieństwa pojawiania się liter w danym języku ani ich ilości ogólnej, lecz tylko od stopnia prawdopodobieństwa samej sytuacji.

Stosunek zdania do świata realnego nie ma znaczenia dla jego przekazu kanałem łączności, lecz staje się decydujący przy pomiarze informacji, zawartej np. w prawie naukowym. Zajmiemy się „hodowlą” tylko tego drugiego rodzaju informacji, zwanej strukturalną.

„Zwykłe” molekuły chemiczne niczego nie wyrażają albo „wyrażają tylko siebie”, co na jedno wychodzi. Potrzebne są nam takie, które byłyby i sobą, i zarazem odwzorowaniem czegoś poza nimi (modelem). To jest możliwe, bo określone miejsce chromosomu poza tym, że jest „sobą”, tj. cząsteczką kwasu dezoksyrybonukleinowego, „wyraża” też fakt, że powstały z niego organizm będzie miał np. niebieskie oczy. Co prawda „wyraża” to tylko jako element całościowej organizacji genotypu.

Jak teraz należy rozumieć „wyrażanie środowiska” przez hipotetyczne „organizmy–teorie”? Środowiskiem, badanym przez naukę, jest wszystko, co istnieje, tj. cały świat — ale nie wszystko naraz. Zbieranie informacji polega na wyborze, w tym świecie, układów i badaniu ich zachowania się. Pewne zjawiska, jak gwiazdy, rośliny, ludzie, mają takie cechy, że „narzucają się” jako układy; inne (chmura, błyskawica) pozornie tylko są obdarzone taką autonomią, taką względną izolacją od otoczenia. Zdradzimy teraz, że naszej „ewolucji informacyjnej” nie zaczniemy bynajmniej od zera, to jest, że nie jest naszym zamiarem stworzyć coś takiego, co najpierw będzie musiało osiągnąć poziom wiedzy ludzkiej „samo”, a dopiero potem pójść dalej. Nie wiem, czy to byłoby niemożliwe; zapewne nie; w każdym razie taka ewolucja „od zera” wymagałaby olbrzymiego czasu (może nawet takiego, jak ewolucja biologiczna). To zresztą wcale nie jest potrzebne. Posłużymy się od razu naszymi wiadomościami, także w zakresie klasyfikacyjnym (na temat tego, co jest układem godnym badania, a co nim nie jest). Będziemy liczyli na to, że przez jakiś czas może i nie uzyskamy fenomenalnych odkryć, że nastąpią dopiero, gdy nasza „hodowla” okrzepnie. Do rozwiązania będziemy dochodzili metodą kolejnych przybliżeń. Hodowlę można projektować rozmaicie. Wstępnym niejako modelem jej jest rzeczne żwirowisko jako „generator różnorodności” oraz „selektor” jako urządzenie wybiórcze, wyczulone na „regularność”. Jeżeli selektor jest szeregiem przegród z okrągłymi otworami, to u końca otrzymamy tylko otoczaki okrągłe, bo inne przez „filtr” nie przejdą. Uzyskaliśmy pewien ład z nieładu (z „szumu” żwirowiska), ale kuliste głazy niczego poza sobą nie reprezentują. Informacja natomiast jest reprezentacją. A zatem selektor nie może działać ze względu na „cechę w sobie”, ale na coś poza nim. Musi on być więc podłączony, z jednej strony, jako filtr do generatora „szumów”, a z drugie j do pewne j części świata zewnętrznego.

Na koncepcji „generatora różnorodności” opiera się pomysł R. Ashby’ego zbudowania „wzmacniacza inteligencji”. Ashby powiada, że dowolne prawa naukowe, formuły matematyczne itp. mogą być generowane układem działającym zupełnie chaotycznie. Tak na przykład dwumian Newtona może zostać „nadany” alfabetem Morse’a przez motylka, trzepocącego skrzydełkami nad kwiatem, za sprawą czystego przypadku. Co więcej: na takie dziwne przypadki nie trzeba wcale czekać. Ponieważ każdą informację, więc, dajmy na to, dwumian Newtona, można przekazać dwójkowym kodem przy pomocy kilkunastu symboli, to w każdym centymetrze sześciennym powietrza jego cząsteczki, w trakcie swych chaotycznych ruchów, przekazują ową formułę kilkaset —tysięcy razy na sekundę. Istotnie tak jest; Ashby podaje odpowiednie obliczenie. Stąd już prosty wniosek, że w powietrzu mego pokoju, gdy to piszę, unoszą się konfiguracje molekuł wyrażające, w języku dwójkowego kodu, niezliczone ilości innych bezcennych formuł, a także sformułowania na poruszany przeze mnie temat, ale o wiele precyzyjniejsze i jaśniejsze od moich. Cóż dopiero mówić o atmosferze całej Ziemi! W niej powstają w ułamkach sekund i natychmiast się rozpadają genialne prawdy nauki pięciotysięcznego roku, wiersze, dramaty, pieśni Szekspirów, mających się dopiero urodzić, tajemnice innych systemów kosmicznych i Bóg raczy wiedzieć co jeszcze.

Co z tego wynika? Niestety nic, ponieważ te „cenne” rezultaty miliardowych zderzeń atomów wymieszane są z bilionami innych, całkiem bezsensownych. Ashby powiada, że nowe idee są niczym, skoro można je wytwarzać na pudy i na hektary procesami tak „szumowymi”, tak przypadkowymi, jak zderzenia atomów gazu, natomiast wszystkim jest odsiew, selekcja. Ashby zmierza w ten sposób do udowodnienia możliwości „wzmacniacza inteligencji” jako selektora pomysłów, których dostarcza byle proces szumowy. Nasze podejście jest odmienne; przytoczyłem Ashby’ego, aby ukazać, że można zmierzać do podobnego celu (chociaż nie tego samego — „wzmacniacz” jest czymś innym od „hodowli”) przeciwnymi drogami. Ashby uważa, że należy wychodzić od największej różnorodności i stopniowo ją „filtrować”. My natomiast pragniemy wyjść od różnorodności wielkiej, ale nie olbrzymiej, od takiej, jaką jest materialny proces samoorganizujący się (jak zapłodnione jajo), i doprowadzić do tego, aby ten proces „rozwinął się” nam w teorię naukową. Być może, jego złożoność wzrośnie wtedy, a może i zmaleje; nie jest to dla nas najważniejsze.

Zauważmy, że w pewnym sensie „generator różnorodności”, postulowany przez Ashby’ego, już istnieje.

Można powiedzieć, że matematyka wytwarza bezustannie niezliczone struktury „puste”, a świat, a fizycy i inni uczeni, przetrząsając bezustannie ów skład różnorodności (tj. różnych systemów formalnych), od czasu do czasu znajdują tam coś przydatnego dla praktyki, co „pasuje” na określone zjawiska materialne. Algebra Boole’a powstała wcześniej, nim wiedziano cokół— . wiek o cybernetyce; okazało się, że mózg też posługuje się elementami owej algebry, i na jej zasadach oparte są teraz działania maszyn liczbowych. Cayley wynalazł rachunek matrycowy na kilkadziesiąt lat przed tym, zanim Heisenberg zauważył, że można go zastosować do mechaniki kwantowej. Hadamard opowiada, jak pewien system formalny, „pusty”, którym się zajmował jako matematyk i o którym ani sądził, że może mieć cokolwiek wspólnego z rzeczywistością, przydał się potem w badaniach empirycznych. Tak więc matematycy to generator różnorodności, a empirycy—postulowany przez Ashby’ego selektor.

Otóż, naturalnie, matematyka nie jest naprawdę generatorem szumów. Jest ona generatorem ładów. Rozmaitych „porządków w sobie”. Ona stwarza porządki, a niektóre z nich przystają mniej lub bardziej fragmentarycznie do rzeczywistego świata. Ta fragmentaryczna przystawalność umożliwia rozwój nauki i technologii, a więc cywilizacji.

Powiada się czasem, że matematyka jest ładem „nadmiernym” w stosunku do rzeczywistości, mniej od niej uporządkowanej. Ale nie całkiem tak jest. Matematyka, przy całej swojej wielkości, niezmienności, konieczności, jednoznaczności, w naszym wieku pierwszy raz zadrżała, bo na jej fundamentach pojawiły się pęknięcia, od lat trzydziestych, kiedy to Kurt Gödel udowodnił, że jej postulat podstawowy — niesprzeczności a zarazem zupełności wewnątrzsystemowej[xii] — nie daje się spełnić. Jeśli system jest niesprzeczny, to nie jest zupełny, a jeśli jest zupełny, przestaje być niesprzeczny. Wydaje się, że matematyka jest tak samo ułomna, jak każda ludzka działalność; w moim rozumieniu nie ma w tym nic złego, nic, co by ją umniejszało. Ale mniejsza o matematykę, ponieważ nie chcemy jej. Czy nie można uniknąć matematyzacji procesów poznania? Nie tej, która, obywając się bez wszelkich znaków i formalizmów, rządzi procesami chromosomów i gwiazd, ale tej, która posługuje się aparatem symbolicznym, regułami autonomicznych przekształceń i rozbudowuje swymi operacjami głębię logiczną, której nic w Naturze nie odpowiada. Czy jesteśmy skazani na te jej rusztowania? Powiedzmy sobie najpierw, ale niejako tylko dla rozgrzewki, że choć to najmniej obiecuje, najłatwiej jest uruchomić „hodowlę systemów matematycznych”. Rozumie się, na zasadzie „dedukcyjnego rozwoju” z „aksjomatycznego jądra”, w którego „genotypie” utrwalone są wszystkie reguły dozwolonych przekształceń. W ten sposób uzyskamy przeróżne „organizmy matematyczne”, jakie można sobie wyobrazić, pod postacią zawiłych struktur krystalicznych itp.; zrobiliśmy przy tym akurat na odwrót to, co dotąd robiła nauka. Ona bowiem pustkę systemów matematycznych wypełniała materialną treścią zjawisk, my natomiast nie tłumaczymy takich zjawisk na matematykę, lecz właśnie matematykę — na zjawiska materialne.

W ten sposób można by, rozumie się, dokonywać też rozmaitych obliczeń, a wreszcie projektować różne urządzenia, a to tak, że wprowadzamy , wstępne dane (na przykład parametry działania jakiejś maszyny do zbudowania) w „genotyp”, który, rozwijając się, da nam jako „organizm” —końcowe rozwiązanie zadania albo projekt maszyny. Oczywiście, skoro potrafimy dane wartości parametrów przekodować na język molekularny „genotypu”, to potem robimy to samo z „organizmem matematycznym” i ten jakiś kryształ, czy inną strukturę powstałą w trakcie „dedukcyjnego rozwinięcia”, tłumaczymy z powrotem na język liczb, rysunków projektowych itp. Za każdym razem rozwiązanie „samo wyrasta” w toku uruchomionych reakcji, a my wcale nie musimy się troszczyć o poszczególne etapy tego procesu. Ważny jest tylko rezultat końcowy. Przy tym rozwój winien zachodzić pod kontrolą wewnętrznych sprzężeń zwrotnych tak, ażeby w momencie, gdy określone parametry dojdą właściwych wartości, cała ta „embriogeneza” została wstrzymana.

Uruchomienie „hodowli informacji empirycznej” sprowadza się do „obrócenia do góry nogami” drzewa ewolucji biologicznej. Ewolucja wyszła z układu jednorodnego (prakomórki) i stworzyła milionowo rozdrzewiające się gałęzie typów, rodzin, gatunków. „Hodowla” wychodzi od konkretnych zjawisk, odwzorowanych w ich równoważnikach materialnych, i zmierza ku takiemu, .sprowadzeniu do wspólnego mianownika”, że na końcu otrzymamy jednolitą teorię, zakodowaną językiem molekularnym w trwałej strukturze pseudoorganizmu.

Ale może dosyć już metafor. Zaczynamy od modelowania poszczególnych zjawisk pewnej klasy. Informację wstępną zbieramy sami — w „klasyczny” sposób. Musimy teraz przenieść ją na substrat informacjonośny. Tego substratu winna dostarczyć chemia syntez.

Zadaniem naszym jest reprezentować tor układu (przebieg zjawiska) — torem dynamicznym innego układu. Procesy musimy przedstawić procesami, a nie znakami formalnymi. Zapłodnione jajo jest izomorficzne ze swym „rysopisem atomowym”, narysowanym na papierze, albo z modelem przestrzennym z kulek, imitujących atomy. Nie jest to jednak model izodynamiczny, ponieważ model zbudowany z kulek nie będzie się, rzecz jasna, rozwijał. Model zawiera tę samą informację, co jajo. Inny jest wszakże w obu wypadkach nośnik informacji. Dlatego jajo może się rozwijać, a papierowy nośnik — nie. Potrzebne są nam modele, zdolne do rozwoju. Zapewne, gdyby znaki wypisywanych na papierze równań zechciały z sobą reagować, niepotrzebna byłaby cała „hodowla informacji”. Ale to jest oczywiście niemożliwe. Natomiast stworzenie hodowli jest wprawdzie niesłychanie trudne i bardzo znacznie oddalone od nas w czasie, ale nie jest — jak można mieć nadzieję — absurdem.

Budulcem dla „nośników informacji” będą np. wielkie molekuły syntetycznych polimerów. Rozwijają się one, powiększają, komplikują swą strukturę, przyłączając do siebie cząstki „pożywienia”, zawieszone w ośrodku, w którym przebywają „nośniki”. Nośniki dobierają się tak, że ich rozwój, ich następujące po sobie przemiany, odpowiadają izodynamicznie przemianom określonego układu (zjawiska) w świecie zewnętrznym. Każda taka molekuła to „genotyp”, który rozwija się zgodnie z reprezentowaną przez się sytuacją. Na początku wprowadzamy do zbiornika znaczną ilość (kilka bilionów) molekuł, o których już wiemy, że pierwsze fazy ich przemian zmierzają w pożądanym kierunku. Rozpoczyna się „embriogeneza”, oznaczająca zgodność między torem rozwojowym nośnika a torem dynamicznym zjawiska realnego. Rozwój jest kontrolowany, jako sprzężony z sytuacją. Sprzężenie jest selektywne (czyli zachodzi odsiew „rozwijających się nieprawidłowo”). Wszystkie molekuły razem stanowią „populację informacyjną”. Populacja przechodzi kolejno z jednego zbiornika do drugiego. Każdy zbiornik jest stacją selekcyjną. Nazwiemy ją w skrócie „sitem”.

„Sito” jest aparaturą, połączoną odpowiednio (np. automatycznymi manipulatorami, perceptronami itp.) ze zjawiskiem realnym. Informacje strukturalne o stanie zjawiska „sito” przekodowuje na język molekularny i wytwarza rodzaj mikroskopijnych drobin, z których każda stanowi „zapis stanu zjawiska”, czyli aktualny przekrój jego toru dynamicznego. Tak więc zderzają się dwie fale drobin. Pierwsze, w toku rozwoju, jako samoorganizujące się nośniki informacyjne, stanem, jaki właśnie osiągnęły, „przepowiadają” stan, w jakim się znajduje realne zjawisko. Druga fala, to drobiny wytworzone w „sicie”, niosące informację o tym, jaki jest rzeczywisty stan zjawiska.

Zachodzi reakcja podobna do strącania antygenów przez antyciała w serologii. Ale zasadą strącania jest różnica między „prawdą” i „fałszem”. Strącone zostają wszystkie drobiny, które przepowiedziały zjawisko trafnie, ponieważ ich molekularna struktura „pasuje” do chwytnej struktury molekularnej drobin wysłanych przez „sito”. Strącone nośniki, jako te, które „przepowiedziały prawdziwie” stan zjawiska, przechodzą do następnej selekcji, gdzie proces się powtarza (znów zderzają się z drobinami niosącymi wieść o dalszym stanie zjawiska, znów „antycypujące” prawdziwie ten stan zostają strącone itd.). Uzyskujemy w końcu pewną ilość drobin, które są izodynamicznym, wyselekcjonowanym modelem rozwojowym całego zjawiska. Znając ich skład chemiczny początkowy, wiemy już, jakie molekuły możemy uznać za dynamiczne modele rozwoju tego układu, który był badany.

Taki jest wstęp do ewolucji informacyjnej. Uzyskujemy pewną ilość dobrze przepowiadających rozwój zjawiska X informacyjnych „genotypów”. Zarazem prowadzi się analogiczną „hodowlę” drobin, modelujących zjawiska X, Y, Z, należące do całej badanej klasy. Powiedzmy, że wreszcie mamy nośniki dla wszystkich siedmiuset milionów elementarnych zjawisk owej klasy. Potrzebna jest teraz „teoria klasy”, polegająca na znalezieniu jej niezmienników, czyli parametrów wspólnych dla całej klasy. Należy zatem odsiać wszystkie parametry nieistotne.

Podejmujemy hodowlę „następnego pokolenia” nośników, które już nie modelują rozwoju oryginalnego zjawiska, lecz rozwój pierwszego pokolenia nośników. Ponieważ zjawisko ma nieskończoną ilość wykryć się dających zmiennych, został dokonany wstępnie wybór zmiennych istotnych. Było ich bardzo wiele, ale oczywiście nie mogły to być wszystkie zmienne. Wstępny wybór, jakeśmy wspominali, zachodzi metodą „klasyczną”, tj. dokonują go uczeni.

Obecnie następne pokolenie nośników tak samo nie modeluje wszystkich zmiennych rozwojowych pierwszego pokolenia, ale tym razem selekcja zmiennych istotnych następuje samoczynnie (metodami katalitycznego strącania). Różne egzemplarze nośników drugiego pokolenia pomijają w rozwoju różne .zmienne nośników pierwotnych. Niektóre pomijają zmienne istotne, przez co ich tory dynamiczne odchylają się od „prawdziwej przepowiedni”. Te są ciągle eliminowane w kolejnych „sitach”. Wreszcie wyselekcjonowane zostają te nośniki drugiego miotu, które mimo pominięcia pewnej ilości zmiennych „przepowiedziały” cały tor rozwojowy pierwotnych. Jeżeli budowa nośników, które dochodzą do „mety” w drugim rzucie, jest praktycznie tożsama, znaczy to, że uzyskaliśmy, tj. „skrystalizowaliśmy teorię badanej klasy”. Jeżeli wciąż jeszcze panuje (chemiczna, topologiczna) różnorodność wśród nośników, trzeba selekcję powtarzać, w celu dalszego eliminowania zmiennych nieistotnych.

„Skrystalizowane teorie” lub, jeśli kto woli, „organizmy teoretyczne drugiego rzutu z kolei zaczynają „rywalizację” o odwzorowanie z analogicznymi drobinami, które stanowią „teorię” innej klasy zjawisk. W ten sposób dążymy do uzyskania „teorii klasy klas”. Proces ten można dowolnie kontynuować celem uzyskania różnych stopni „teoretycznego uogólnienia”. Nieosiągalnym, lecz pomyśleć się dającym jest jakiś „brylant poznania”, jakiś „superorganizm teoretyczny” u samego szczytu tej piramidy ewolucyjnej, ku któremu dążymy: jest to „teoria wszystkiego, co istnieje”. Na pewno niemożliwa; mówimy o niej tylko, aby unaocznić lepiej analogię do „odwróconego drzewa ewolucyjnego”.

Koncepcja powyższa jest wprawdzie dosyć nużąca w wykładzie, a jednak bardzo prymitywna. Godzi się pomyśleć o jej usprawnieniach. Np. warto by zastosować w „hodowli” niejako „lamarckizm urzeczywistniony”. Wiadomo, że teoria Lamarcka o dziedziczeniu cech nabytych nie odpowiada prawdzie biologii. Metodę dziedziczenia „cech nabytych” można by zastosować w ewolucji informacyjnej celem przyspieszenia „uogólnień teoretycznych”. Mówiliśmy wprawdzie o „informacji skrystalizowanej”, ale równie dobrze jest możliwe, że drobiny „teorionośne” będą inną substancją (polimery). Może też się okazać, że ich podobieństwo do żywych organizmów pod niektórymi aspektami będzie znaczne. Być może, trzeba by zaczynać nie od drobin, ale względnie dużych konglomeratów albo nawet „pseudoorganizmów”, czyli „fenotypów”, stanowiących zapis informacyjny realnego zjawiska, i zmierzać do tego, ażeby, znów odwrotnie niż w rzeczywistości biologicznej, taki „fenotyp” wyprodukował swoje „uogólnienie”, swój „plan teoretyczny”, czyli „genotyp–teorię”.

Mniejsza jednak o takie pomysły, bo i tak żadnego zweryfikować nie można. Zauważmy tylko, że każda „drobina—teoria” jest źródłem informacji uogólnionej w prawo systemowe, którą można przekodować na język dla nas zrozumiały. Drobiny te są wolne od ograniczeń formalnych systemów matematycznych: zachowanie się trzech, pięciu czy sześciu grawitujących ciał mogą bowiem wymodelować, co jest matematycznie przedsięwzięciem nie—pokonalnym (przynajmniej w sposób ścisły). Uruchamiając rozwój nośników

„teorii pięciu ciał”, uzyskamy, dane o położeniu ciał realnych. W tym celu musimy „puścić je w obieg” w odpowiedniej aparaturze tak, aby ich tory rozwojowe zestroiły się z torami badanego systemu, dzięki sprzężeniom zwrotnym. Oczywiście zakłada to istnienie mechanizmów autoregulacyjnych i samoorganizujących w owych nośnikach. Tak więc można rzec, że jesteśmy jak Liao Si Ming, który nauczał walki ze smokami, a jedynym szkopułem był ten, że absolwent nauk nigdzie nie mógł znaleźć smoka. I my nie wiemy ani jak zbudować, ani gdzie szukać materiału dla „nośników informacyjnych”. W każdym razie przedstawiliśmy, jak sobie można wyobrazić przyszłość odległej „biotechnologii”. Jak widać, możliwości jej mogą być niemałe. Ośmieliwszy się tak powiedzianym, w zakończeniu przedstawimy jeszcze jeden wariant biotechnologiczny.

Osobną klasą dla siebie byłyby takie „plemniki informacjonośne”, których zadaniem byłoby nie badanie zjawisk lub urządzeń, lecz ich produkowanie. Z takich „plemników”, czy też „jaj”, powstawałyby wszelkie żądane obiekty (maszyny, organizmy itp.). Oczywiście, taki „plemnik roboczy” musiałby dysponować zarówno informacją zakodowaną, jak i urządzeniami wykonawczymi (jak plemnik biologiczny). Komórka rozrodcza zawiera informację, jaki jest cel ostateczny (organizm) i jaki tor do celu (embriogeneza), ale materiały do „budowania płodu” ma dane (w jaju). Do pomyślenia jest wszakże taki „roboczy plemnik”, który poza informacją, jaki ma sporządzić obiekt oraz w jaki sposób to uczynić, posiada dodatkową informację o tym, jak materiały otoczenia (na innej planecie np.) przerobić w potrzebny budulec. Taki „plemnik” zasadzony w piasku, jeśli posiada odpowiedni program, wyprodukuje wszystko, co można z krzemionki wytworzyć. Ewentualnie trzeba mu „podsypać” innych materiałów i, rozumie się, podłączyć mu źródło energii (np. atomowej). Ale na tym kulminacyjnym akordzie panbiotechnologicznym sprawę najwyższy czas zakończyć.[xiii]


Inżynieria językowa

 

Ciała oddziaływają na siebie materialnie, energetycznie oraz informacyjnie. Rezultatem działania jest zmiana stanu. Jeżeli rzucę się na ziemię, ponieważ ktoś zawołał „padnij”, zmianę mego położenia wywołało przybycie informacji; jeśli upadnę, bo runęła na mnie encyklopedia, zmianę spowodowało działanie materialne. W pierwszym przypadku nie musiałem, w drugim natomiast — musiałem upaść. Działania materialno–energetyczne są zdeterminowane, informacyjne natomiast wywołują tylko zmiany pewnych rozkładów prawdopodobieństwa.

Tak to wygląda przynajmniej w wysoce nieścisłym uogólnieniu. Działania informacyjne zmieniają rozkłady prawdopodobieństwa w zakresie ustalonym przez warunki energetyczno–materialne. Jeśli ktoś zawoła do mnie „lataj!” nie uczynię tego, choćbym chciał. Informacja zostanie przekazana, lecz nie urzeczywistniona. Zmieni ona stan mego mózgu, ale nie stan mego ciała Będę rozumiał, co do mnie powiedziano, ale nie będę mógł powiedzianego wykonać. Tak więc, język posiada aspekt sprawczy oraz aspekt rozumiejący. Od tego ustalenia wystartujemy. Przez język będziemy rozumieli zbiór stanów, wyodrębniony ze zbioru „wszystkich możliwych stanów”, czyli tego ostatniego podzbiór, w którym zachodzi selekcja ze względu na „coś” (na pewne X). Dla danego języka X jest zmienną, przyjmującą rozmaite wartości w pewnym ich przedziale. O jakie „podzbiory stanów” chodzi? Zaoszczędzimy wiele słów, uciekając się do przykładu. Inny taki podzbiór, już nie językowy, zawiera wszechmożliwe tory ciał w systemie słonecznym. Łatwo zauważyć, że choć możliwych torów jest nieskończenie wiele, nie są one dowolne (np. nie są możliwe tory kwadratowe). Ciała zachowują się tak, jakby na ich ruchy nałożone były pewne restrykcje. Powiadamy, za Einsteinem, że restrykcje na owe ruchy ciał nakłada metryka przestrzeni, warunkowana rozkładem mas. Wszystkie możliwe tory ciał krążących, jak i tych, które mogą być kiedykolwiek w system wprowadzone, nie są tym samym, czym owa przestrzeń o własnościach ograniczających. Analogicznie rozróżnia się w lingwistyce pomiędzy wypowiedziami („torami”) a językiem (jak gdyby „polem językowym”). Analogię można kontynuować. Jak pole grawitacyjne Ogranicza ciała w ich ruchach, tak „pole językowe” ogranicza „tory” wypowiedzi. Podobnie też, jak każdy kinematyczny tor wyznaczany jest z jednej strony przez metrykę pola, a z drugiej przez warunki brzeżne ciała (jego początkową szybkość, kierunek ruchu), tak w kształtowaniu wypowiedzi uczestniczą warunki „pola językowego”, jako reguły składniowo–semantyczne, oraz „lokalne warunki brzeżne”, dane przez diachronię i synchronię wypowiadającego się osobnika. Jak tory ciał nie są polem grawitacyjnym, tak wypowiedzi nie są językiem, chociaż jeśli z układu znikną wszystkie masy, znikną też restrykcje, nakładane przez ciążenie, a jeśli umrą wszyscy władający polskim, znikną odpowiednie reguły syntaktyczno–znaczeniowe, czyli „pole” naszego języka. Nasuwa się pytanie, w jaki właściwie sposób istnieją „pola” — językowe i grawitacyjne? Pytanie to kłopotliwe, dotyczące „statusu ontologicznego” badanych zjawisk. Ruchy ciał i artykulacje językowe istnieją na pewno — ale czy dokładnie w taki sam sposób, jak grawitacja i język? W obu wypadkach — odpowiemy — stosuje się określone formy opisu, które wyjaśniają stan rzeczy i zezwalają na predykcje (w wypadku języka probabilistyczne tylko, o co niniejsza teraz). Opisów tych nie jesteśmy wszakże zmuszeni uznać za ultymatywne, bo nie wiemy, czy Eistein i lingwiści wypowiedzieli w tych kwestiach (ciążenia i języka) ostatnie, po wieczność już nienaruszalne słowo. Lecz okoliczność ta nie przysparza kłopotów ani konstruktorowi rakiet planetarnych, ani maszyn rozmownych, jako problem ontologiczny przynajmniej, bo jest dla obu technicznym tylko. Przedstawimy teraz rozkład modelowy „wszechmożli wych” języków na skali dwubiegunowej. Jeden jej biegun nazwiemy „sprawczym”, drugi zaś — „rozumiejącym”. Na skali tej język naturalny zajmuje miejsce niedaleko bieguna „rozumiejącego”, język fizykalistyczny mieści się gdzieś pośrodku, a język dziedziczności tkwi na samym biegunie „sprawczym”.

Pomiędzy „sprawczością” informacyjną a materialną tylko taka jest różnica, że efekty sprawstwa czysto materialnego nie są do niczego odniesione, to znaczy, kiedy jakieś materialne zjawisko zachodzi, a można uznać, rola czynników „informacyjnych” jest w nim zupełnie nieistotna, niepodobna rozważać, czy to zjawisko jest „prawdziwe” lub „fałszywe”, czy ono jest „adekwatne” albo „nieadekwatne”, albowiem ono po prostu zachodzi, i kwita.

Każdą wypowiedź językową można uważać za pewien program sterowniczy, to jest za macierz przekształceń. Rezultat zrealizowanych przekształceń może albo być czysto informacyjny, albo — równocześnie — i materialny. Co się zaś sterowania tyczy, może ono zachodzić wewnątrzsystemowo, gdy jedna część układu (jądro jaja) zawiera program, a inne jego części są realizatorami zadanych przekształceń. Może też zachodzić sterowanie międzysystemowe — kiedy np, mową lub pismem porozumiewają się dwaj ludzie. Czasem tylko umownie da się ustalić, czy mamy przed sobą dwa systemy sprzężone, czy tylko jeden — rzecz skądinąd ważna, lecz nas teraz nie zajmująca. Określona wypowiedź, np. książka, steruje mózgowymi procesami czytelnika. Gdy jednak sterownicze programy języka dziedziczności są uszczegółowione dokładnie, wypowiedzi języka naturalnego stanowią programy pełne luk. Zapłodnione jajo nie uprawia — wobec sterującej jego przemianami grupy chromosomów — jakiejś obranej strategii (chociaż może uprawiać ją, jako całość, względem środowiska, przeciwstawiając się płynącym zeń zakłóceniom). —Wybierać strategie może odbiorca tylko wówczas, kiedy przybywający program nie ujednoznacznia narzucanego zachowania, kiedy np. jest ów program pełen luk. Wymaga wówczas uzupełniania, które określają zarówno rozmiary luk, jak i „potencja interpretacyjna” odbiorcy, dana jego strukturą układową oraz przedprogramowaniem. Nie będąc sterowanym deterministycznie, czytelnik powieści jest niejako zmuszany do podejmowania różnopoziomowych decyzji strategicznych (do czego odnieść poszczególne zdania, całe przekazywane sceny, układy ze scen zbudowane itp.). Strategia sprowadza się zwykle do informacyjnej maksymalizacji oraz organizującej optymalizacji (chcemy się dowiedzieć najwięcej i w sposób najbardziej spójny, całościowy). Odbiór tekstu jako programu wymagającego uzupełnień w paśmie dopuszczalnych oscylacji interpretacyjnych stanowi tylko jeden człon hierarchicznie złożonego postępowania, bo wszak nie po to czytamy, aby uprawiać strategię przyporządkowującą czy uładzającą, lecz po to, aby się czegoś dowiedzieć. Właściwym rezultatem odbioru, na którym nam zależy, jest przyrost informacji. Na ogół decyzje interpretacyjne wszystkie inne czynności sterownicze syntaktyczno–semantycznej natury uruchamia przekaz podprogowo, tj. „uzupełnianie w głowie fragmentarycznego programu” zachodzi w sposób introspekcji niedostępny. Świadomość otrzymuje same tylko wyniki końcowe procesów decyzyjnych, już jako informację, która tekst niesie rzekomo całkiem bezpośrednio. Dopiero gdy tekst jest trudny, czynności dotąd automatyzowane ulegają częściowo „wywindowaniu” w pole świadomości, która włącza się do akcji jako zwierzchnia instancja interpretująca. Zachodzi to zmiennie u różnych osobników, ponieważ „trudność” tekstu nie jest mierzalna na jednolitej skali dla wszystkich ludzi. Zresztą pełnego rozeznania w wieloczłonowej pracy mózgu nigdy się introspekcyjnie nie zdobywa i przedstawia owa niedostępność jedną ze zmór lingwistyki teoretycznej. Jeżeli wydajność przesyłu okazuje się niezła, tj. niezmienniki tekstu są przekazywane, chociaż tekst jako program „rekonstrukcji informacyjnej” zieje lukami, to dlatego, ponieważ mózgi nadawcy i odbiorcy stanowią układy homomorficzne o wysokim stopniu równoległości czynnościowej, zwłaszcza jeśli podlegały analogicznemu przedprogramowaniu — w kręgu tej samej kultury.

Formalizacja wypowiedzi językowej zmierza do maksymalnego zaciśnięcia pasma dowolności interpretacyjnej. Język formalny nie dopuszcza alternatywnych wykładni — tak być przynajmniej powinno w idealnej granicy. W rzeczywistości okazuje się, że pasmo to nie jest zerowe, dlatego pewne wypowiedzi, dla matematyka jednoznaczne, nie okazują się takie dla maszyny cyfrowej. Język formalny realizuje — w sposób nierozumiejący (a przynajmniej „niekoniecznie rozumiejący”) — sprawstwo czysto informacyjne, stanowiąc program bez luk, gdyż wszystkie elementy oraz reguły ich przekształceń winny być zadane explicite— już startowo (brak miejsca dla „domyślności” odbiorczej ma uniemożliwić uprawianie rozmaitych strategii wykładniczych). Wypowiedzi formalne są rozbitym na elementarne kroki konstruowaniem struktur, posiadających relacje wewnętrzne oraz pozbawionych relacji zewnętrznych (odniesień do realnego świata). Nie podlegają też zewnętrznym testom sprawdzającym; prawdziwość w czystej matematyce to tyle, co możliwość (niesprzecznego) skonstruowania.

Sprawczym informacyjnie i materialnie zarazem jest język dziedziczności. Jest to język o tyle szczególny, że „wypowiedzi” w nim generowane ulegają po pewnym czasie „sprawdzeniu” ze względu na ich „adekwatność biologiczną”, w „naturalnych testach” sprawności ustrojów żywych, zachodzących w przyrodzonym ich środowisku ekologicznym. „Wypowiedzi” tego „języka” spełniać zatem winny kryteria „prawdy” w rozumieniu pragmatycznym: skuteczność „sprawstwa” weryfikuje się albo falsyfikuje w działaniu, przy czym „prawda” równa się przeżyciu, a „fałsz” zagładzie. Tym abstrakcyjnie logicznym skrajnościom odpowiada w istocie szerokie, ciągłe widmo rozkładów możliwych, ponieważ takie „zdania genowe”, które są „wewnętrznie sprzeczne , bo zawierają geny letalne, w ogóle nie mogą ukończyć wstępnej, embriogenetycznej fazy swojego sprawstwa, natomiast inne „zdania” „obalane są” dopiero po dłuższym czasie — np. życia jednego, albo i szeregu pokoleń. Badanie przy tym samego owego języka, poszczególnych jego „zdań”, bez uwzględnienia tych wszystkich „kryteriów adekwatności”, jakie zawiera środowisko, nie pozwala na ustalenie, czy i w jakiej mierze jest zaprogramowane w jądrze komórkowym sprawstwo — urzeczywistnialne.

W języku sprawczym nie występują żadne terminy „mentalne”, „emocjonalne”, „wolicjonalne”, jak również nie ma w nim nazw ogólnych. Mimo to uniwersalizm podobnego języka może być spory, gdy uwzględnić i to, że wprawdzie język chromosomów jest całkowicie apsychiczny i „nierozumiejący”, bo wszak nie stanowi następstwa niczyjego myślenia, ale urzeczywistnia on — u końca łańcucha przez się sterowanych przekształceń — język istot rozumiejących. Ale, po pierwsze, powstanie „pochodnego” w tym sensie języka rozumiejącego zachodzi dopiero na poziomie całego zbioru osobników ludzkich (indywiduum samo języka nie wytworzy), a po wtóre nie determinuje on powstania języka rozumiejącego, lecz tylko zajście takie probabilistycznie umożliwia.

Język czysto rozumiejący realnie nigdzie nie istnieje, lecz można by go sztucznie wyprodukować. W tym celu należy sporządzić układy izolowane, będące pewnego rodzaju modyfikacją leibnizowskich „monad”, posiadających określone, a zmienne w czasie stany wewnętrzne, którym przyporządkowane są skrótowe oznaczenia. „Porozumiewanie się” oznacza przekaz —przez jedną monadę innym — nazwy jej stanu wewnętrznego. Monada rozumie monadę, ponieważ zna, z „doświadczenia wewnętrznego”, wszystkie stany, o jakich może zostać przez towarzyszki losu poinformowana. Nasuwa się oczywiście analogia z językiem subiektywnym introspekcji, w którym komunikuje się stany uczuciowe, wolicjonalne („chcę, żeby mi było wesoło”), mentalne („marzę o radości”). Owym „X”, ze względu na które zachodzi selekcja „wypowiedzi” w języku chromosomowym jest, jak już wiemy, „adekwatność biologiczna” względem środowiska. Czym jest to „X” u naszych monad? Selekcja zachodzi ze względu na adekwatność nazw —wobec stanów ich wewnętrznych, i nic ponadto; niczemu zatem w rozumieniu sprawczym, któreśmy ustalili, język czysto rozumiejący służyć nie może. Bez wątpienia dlatego w takiej „totalnie uduchowionej” postaci nie istnieje. Istnieje jednak w postaciach elementarnych, pozbawionych, ze względu na swe ubóstwo terminologiczne i brak składni, prawa do nazwy „języka”, u zwierząt. Ponieważ pożyteczne biologicznie jest, jeśli jedno zwierzę (np. pies) orientuje się w „stanie wewnętrznym” drugiego zwierzęcia, a zarazem, ponieważ takim stanom są przyporządkowane pewne rodzaje obserwowalnego zachowania się, w swoistym „kodzie behawioru” zwierzęta mogą sobie swe stany wewnętrzne (strachu, agresywności) komunikować (i to kanałami zmysłowymi w szerszym od naszego zakresie, ponieważ pies potrafi wywęszyć strach lub agresywność, czy wreszcie seksualną gotowość drugiego psa).

Rozbudowany język czysto rozumiejący, na przykład naszych „monad”, mógłby wytworzyć także logikę i matematykę, ponieważ na elementarnych stanach wewnętrznych, jeśli nie tylko się je przeżywa aktualnie, ale jeżeli można je sobie przypominać, wykonywalne będą rozmaitego rodzaju operacje (dodawania, odejmowania, wyłączania itp.)_. Zauważmy, że ewolucyjnym, naturalnym sposobem, ,monady’’ tego rodzaju powstać by nie mogły, z chwilą jednak gdyby je kto pobudował, powstaje możliwość wytworzenia matematyki i logiki w nieobecności bezpośredniego kontaktu ze światem zewnętrznym (zakładamy, że monady żadnych zmysłów nie mają i połączone są jedynie ze sobą, np. przewodami, po których płyną odbierane i nadawane wypowiedzi „języka rozumiejącego”).

Język naturalny ludzi jest po trosze rozumiejący, a po trosze sprawczy. Można w nim powiedzieć „boli mnie głowa”, aby zaś takie zdanie zrozumieć, trzeba doświadczyć bólu i mieć głowę; można też powiedzieć „boli mnie klęska”, ponieważ język ten jest na wskroś przepojony pochodnymi stanów wewnętrznych, które można rzutować w świat zewnętrzny („przyjście wiosny”, „ponure morze”). Można w nim stworzyć matematykę i logikę, a wreszcie można także urzeczywistniać rozmaite rodzaje sprawstwa empirycznego. Między językiem sprawczym genów a językiem naturalnym zachodzi taka oto ciekawa relacja. Język dziedziczności daje się w języku rozumiejącym ludzi — w granicy przynajmniej, jeśli nie aktualnie — odwzorować. Każdy gen można przecież oznaczyć odpowiednim sposobem, chociażby przez numerowanie (język naturalny implikuje matematykę razem z teorią mnogości). Natomiast języka naturalnego jednoznacznie w chromosomowym odwzorować niepodobna. Jakeśmy już zauważyli, język dziedziczności żadnych nazw ogólnych, ani nazw stanów mentalnych, nie zawiera. Gdyby to tylko dziwne było, rzecz nie stałaby się godna wzmianki. Jest ona wielce pouczająca. Określona wypowiedź chromosomowa sprawiła, że narodził się Lebesgue, Poincare czy Abel. Wiemy, że uzdolnienia matematyczne są przez chromosomową wypowiedź wyznaczane. Co prawda nie istnieją żadne geny „talentu matematycznego”, w tym sensie, żeby je można było ponumerowane wyizolować. Matematyczne uzdolnienie jest preformowane przez niewiadomą część strukturalno–czynnościową całego genotypu, i nie umiemy przesądzić tego, w jakim stopniu znajduje się ono w komórce rozrodczej, w jakim zaś — „mieści się” w środowisku społecznym. Ponad wszelką wątpliwość atoli środowisko okazuje się „wywoływaczem” talentu raczej aniżeli jego kreatorem. Tak więc język sprawczy, nie posiadając w swoim słowniku żadnych nazw ogólnych, może realizować stany, w których się desygnaty nazw takich przejawiają. Rozwój zachodzi tedy od „szczególnego” do „ogólnego”, od stanu złożoności niższej do wyższej. Nie jest więc tak, żeby język sprawczy genów stanowił narzędzie nie dość uniwersalne, takie, z którego badania mało co konstruktorowi przyjdzie — skoro każda w tym „języku” padająca „wypowiedź” jest „tylko” samorealizującą się receptą produkcyjną konkretnego egzemplarza

pewnego gatunku i niczym więcej. Język dziedziczności okazuje się zadziwiająco „nadmiarowy” w swym uniwersalizmie. Język ten jest narzędziem do budowania układów, które potrafią sprostać takim zadaniom, którym sam ich twórca (ów język) podołać nie może — dla braku odpowiedniej aparatury słownikowo—składniowej chociażby.

Dowiedliśmy zatem tego, że efektywność sprawstwa, którą demonstruje język dziedziczności, przekracza granice, wyznaczone przez nasze formalno–metamatematyczne badania. Rozwój jaja nie jest procesem ani „tautologicznym”, ani „dedukcyjnym” wyprowadzeniem konsekwencji z tego „zbioru aksjomatów i reguł przekształcania”, które zawiera jądro komórkowe.

Podczas gdy nasze formalizowania są każdorazowo najwyższym odrywaniem, ponieważ tylko poprzez takie operacje umiemy dotrzeć do pewności ustaleń niezmienniczej — droga ewolucji jest względem naszej dokładnie przeciwstawna. Na żaden „luksus” odgrywania pozwolić wszak sobie chromosomowy „rachunek” predykcyjny nie może, skoro nie na cierpliwym rozwija się papierze, lecz zachodzi realnie — i dlatego właśnie wszystkie, ale to wszystkie stany materii, w której przychodzi sprawczo działać informacyjnym sterowaniem, muszą w nim być uwzględnione. W tym sensie szczególnym można orzec, iż komórkami rozrodczymi wypowiada organizm sądy syntetyczne a priori: albowiem ich przygniatająca większość okazuje się (w sensie pragmatycznym przynajmniej, jakeśmy zauważyli) prawdziwa.

Kryteria „prawdziwości”, czy raczej adekwatności owej są jednak zmienne, skąd zresztą w ogóle możliwość sama transformizmu i ewolucji gatunków; dla nas najistotniejsze zaś okazuje się to, że także w obszarze języka sprawczego, nierozdzielnie spojonego ze swym nośnikiem materialnym, brak kryteriów „prawdy” czy choćby tylko „sprawności” wypowiedzi. Ani rozumiejący, ani sprawczy język nie mogą powstać ani działać, jeśli nie są uwarunkowane i nakierowane pozajęzykowo. Kryteria prawdy, poprawności, efektywności wreszcie języków mieszczą się poza nimi — w materialnym obszarze natury. Pod ich nieobecność potwory bezsensu potrafi tworzyć zarówno język rozumiejący, jak i sprawczy, o czym pouczają pospołu historia piśmiennictwa wraz z naturalną historią gatunków.

Zaproponowaliśmy podział języków na sprawcze i rozumiejące. W języku czysto sprawczym słowo staje się literalnie ciałem. Niczego język taki nie „wyjaśnia”, lecz tylko „treść” wypowiedzi swych materializuje, dzięki programowaniu odpowiednich sekwencji działań. Interesująca jest komparatystyka obu językowych rodzajów, ponieważ sprawczy startuje na poziomie molekularnym i wykracza z niego na makroskopowy poziom wielokomórkowców, natomiast język naturalny powstaje na poziomie makroskopowym (naszych ciał) i z niego wykracza „w obie strony”, tj. atomów i galaktyk. W obu można wykryć zarówno „konotacje”, jak i „denotacje” poszczególnych „nazw”, a nawet „semantykę” — jeśli uznać, że znaczeniom języka naturalnego odpowiadają procesy, organizowane przez ten język w „środowisku mózgowym”, „znaczeniom” zaś języka dziedziczności — procesy, „usprawiedliwiające” w obrębie przyrodniczego środowiska obecność w organizmie — poszczególnych, genowo zdeterminowanych cech. W tym sensie atoli semantyka języka sprawczego jest najwyraźniej skończona, ponieważ od konkretnej funkcji cech genowo zdeterminowanych nie ma, poza środowiskiem ekologicznym, żadnych dalszych „odwołań” testowych (pewna część genotypu wyznacza powstanie kończyn — które „znaczą” lokomocję, inna — oczy, które „znaczą” patrzenie, tyle i nic więcej), natomiast „mózgowe środowisko” języka naturalnego jest tylko „testową stacją pośrednią”, gdyż istnieją inne — względem mózgów zewnętrzne — w świecie Natury i Kultury.

Osobną jest kwestia nazw ogólnych, których w języku sprawczym brak, przez co właśnie ma — ukazany wyżej — charakter skończony, gdy język naturalny jest — dzięki ich obecności — teoriomnogościowy (kontynualny). Ujmując rzecz w prymitywizującym uproszczeniu, powiedzieć można, że potrzebę wytworzenia nazw ogólnych rodzi probabilistyczna natura realnego świata, w jej najczęstszym, stochastycznym, „wydaniu”. Chodzi o nierozdzielność dwu naraz aspektów zjawisk: tego, że mogą być do siebie podobne, i tego, że równocześnie — pod niektórymi względami się od siebie różnią. Każdy stół jest w pewnym sensie „jedyny”, a w innym — stanowi element klasy „stołów”; nazwy ogólne „usztywniają” podobieństwa, a minimalizują różnice; tam, gdzie panowałaby unikalność rzeczy i zjawisk, nazwy ogólne nie byłyby potrzebne — ani możliwe. W rzeczywistości nie ma tak wysokiej rangi ładu, jakiego obecność język postuluje: jest on, jako opis wydarzeń, z reguły bardziej od nich uporządkowany. Procesy stochastyczne, w środowisku ziemskim niezwykle częste, oznaczają współobecność cech losowych („komponenty chaosu”) i cech uporządkowania („komponenty ładu”) w tych samych zjawiskach (zachowanie się ludzi, zwierząt, społeczeństwa, maszyn i układów złożonych a nieliniowych, zmiany klimatyczne, meteorologiczne itp.). Koncepcje deterministyczne poprzedzają w historii nauki indeterministyczne, bo na te pierwsze naprowadza nas, niejako samoczynnie, wiec i wcześniej, sam język; pomija on losowe aspekty stochastyki zjawisk, a mówiąc nieco wyraźniej, wtłacza je bezanalitycznie w gorsety nazw ogólnych. Zbliżone rezultaty uzyskuje język sprawczy — w sensie funkcjonalnym — dzięki uruchamianiu gradientów rozwojowych, wytwarzanych przez molekularne łańcuchy reakcji „zachowawczych” i przez to „teologicznych”. Jest to bardzo ważne dla konstruktora, gdyż okazuje się, że podobne pod względem inwariancji wyniki można uzyskać, stosując techniki bardzo rozmaite. Na poziomie molekularnym „to, co chaotyczne” pokrywa się przeważające z tym, co „termiczne”, tj. z cieplnymi ruchami cząstek. Reakcje zachowawcze — a dzięki nim, gradienty rozwojowe — wzmacniają element prawidłowości, obecnej w stochastycznych procesach, więc końcowy rezultat jest czynnościowo — lecz nie inaczej! — podobny do zastosowania nazw ogólnych: w obu wypadkach wykorzystany zostaje ład zjawisk, przy „stłumieniu” ich losowości.

Natura języków, jako kwantowanych ciągów sterujących, nie daje się pojąć w pełni bez uwzględnienia istoty fizycznej układów, które je wytworzyły. Życie jest stanem termodynamicznie nieprawdopodobnym w sposób określony, mianowicie — oddalonym znacznie, a jak niektórzy sądzą, maksymalnie, od stanu równowagi trwałej. Jak może system, broczący przez to bezustannie uporządkowaniem, skazany już startowo na ciągłe upusty ładu, nie tylko stacjonarność zyskać, lecz wstępować na wyższe poziomy organizacji, np. w embriogenezie? Dzięki „wmontowanym weń” na wszystkich — od molekularnego — piętrach procesom kołowym, które, niby rytmiczne uderzenia, gradem podtrzymujące wciąż spadającą piłkę, muszą być uorganizowa—ne przede wszystkim w czasie. Matematyczny aparat teorii termodynamicznej życia nie istnieje. Gdy w jego braku B. Goodwin zastosował w swej formalnej teorii żywych ustrojów klasyczny aparat mechaniki statystycznej, już to pierwsze przybliżenie ukazało, jak wiodącą rolę gra w procesie życiowym — temporalne zorganizowanie komórki jako sprzężonego zestroju molekularnych drgań, jakimi są właśnie zjawiska biochemiczne. Komórka stanowi zsynchronizowany układ oscylatorów, a to rozwiązanie konstrukcyjne, z naciskiem położonym na periodykę cykli, wciąż doregulowywanych, dyktowane jest przez materiał wyjściowy. Zgodnie z analizą, bezdrganiowo procesu takiego stabilizować nie można, zakazuje tego fizyka, tj. własności budulca. Embriogeneza, metabolizm, morfogeneza są wypadkowymi współdziałania zogniskowanych w czasie, tj. zestrojonych synchronicznie oscylatorów molekularnych, co daje w rozwoju płodowym efekty konwergencji wykładniczej, w stadium dojrzałym — pseudostacjonarności, i co po rozkoja—rzeniu periodyczności współbieżnej prowadzi do starzenia i śmierci. Tak więc zjawisko, oceniane przez cybernetyków zawsze negatywnie — oscylacji, wewnątrzsystemowo powodowanej przez superkorekcję sprzężeniowo—zwrotną, przedstawia, jak widzimy, nieodzowny szkielet dynamiczny samego procesu życiowego. Stąd właśnie czasowa organizacja wypowiedzi językowych, jako programów sterowniczo—regulacyjnych, jako skoncentrowanych ładunków uporządkowania, które trzeba wstrzykiwać stale je tracącemu systemowi. W tym świetle „szansa” języków naturalnych założona jest już w osnowie życiowych zjawisk, podobnie jak elementarne reakcje jednokomórkowców stanowią „przesłankę” powstania mózgów. W tym sensie jedne i drugie są — gdy proces ewolucyjny trwa tylko dość długo — realizowane nieuchronnie, jako znikome, lecz trwałe prawdopodobieństwa łańcucha stochastycznego.

Tak zwana „moc wyjaśniająca” języka naturalnego jest dla nas, choć brzmi to paradoksalnie, w gruncie rzeczy ciemna. Nie zapuścimy się w ryzykowne debaty nad „istotą wyjaśniania”, lecz ograniczymy się do takich oto uwag. Gatunek nasz odbił od pnia człekokształtnych niespełna trzy czwarte miliona lat temu, pod wpływem selekcji naturalnej, preferującej pewną grupę parametrów ustrojowych, przy czym kryteria selekcji nie obejmowały sprawności budowania teorii kwantowych ani rakiet kosmicznych. Mimo to uzyskana w owym odsiewie „nadmiarowość” informacyjnego przetwórstwa mózgów ludzkich okazała się dostateczna dla urzeczywistnienia rezultatów, tak odległych od horyzontu paleopiteka. Niemniej byłoby zaiste niezwykłym, gdyby się okazało, że ten zbiór ładów, które umysł nasz może konstruować i akceptować z dogłębnym poczuciem „rozumienia istoty rzeczy”, najdokładniej pokrywa się ze zbiorem tych wszechmożliwych porządków, jakie tylko są do wykrycia w całym Wszechświecie. Przyznajmy, że nie jest to niemożliwością, wydaje się jednak w wysokim stopniu nieprawdopodobne. Takie rozumowanie, uskromniające nasze możliwości, jest jedynym chyba zaleconym w sytuacji niewiedzy, ponieważ nie znamy właśnie naszych ograniczeń i dlatego przezorniejsze wydaje się dopuszczenie możliwości ich istnienia od bezgranicznego optymizmu, ponieważ optymizm może zaślepić, podczas kiedy postulowanie ograniczeń, stając się ich poszukiwaniem, pozwoli je w końcu zaatakować. Dlatego właśnie przewidujemy stan odległy, w którym łatwiej będzie opanować zjawiska, aniżeli zrozumieć całokształt uwarunkowań, które opanowanie umożliwiają, a to ze względu na ogromną moc zbioru zmiennych i parametrów, zaangażowanych w szczególnie ambitnych przedsięwzięciach. Uważamy więc za realną — perspektywę definitywnego rozwidlenia się sprawczej i rozumiejącej stron języka naturalnego, których swoistym amalgamatem jest mowa ludzka. Jeśli uda się skrzyżować produkowane przez skończone automaty algorytmy z niealgorytmicznymi strumieniami informacji, płynącymi ze zjawisk, pod nadzorem samoorganizacyjnych gradientów, język sprawczy przestanie być rozumiejącym i nauka będzie zamiast „wyjaśnień” produkowała wyzute z nich predykcje. Język rozumiejący pozostanie obserwatorem kampanii informacyjnych, toczonych przez automaty gnostyczne, odbiorcą owocu zwycięstw, przekaźnikiem na nic innego niewymiennych przeżyć, oraz, co chyba nie najmniej ważne, generatorem postaw aksjologicznych. O jakimś nagłym przewrocie, w którym maszyny takie zdominowałyby nas pod względem umysłowym, mówić niepodobna. Rozruch generatorów sprawczych przyspieszy zmiany, notowane już obecnie, gdyż zachodzi — realizowana coraz powszechniej — symbioza, czy też synergia uczonych i maszyn informacyjnych. To, w jakiej mierze kontrola poczynań pozostanie w ręku człowieka, jest po trosze — przyznajmy — kwestią wybranego punktu widzenia. Z tego, że człowiek sam umie pływać, nie wynika, jakoby bez okrętu zdolny był przepłynąć ocean, cóż dopiero, gdy w ten obraz włączyć odrzutowce i rakiety kosmiczne. Podobna ewolucja rozpoczyna się, równolegle niejako, w uniwersum informacyjnym. Człowiek może nakierować maszynę gnostyczną na problem, który potrafiłby może i sam rozwiązać (on albo jego prą wnukowie), lecz maszyna może mu w toku pracy otworzyć oczy na problem, którego istnienia nawet nie podejrzewał.

Kto właściwie ma — w ostatnim przykładzie — inicjatywę wiodącą? Trudno sobie wyobrazić, nawet w przybliżeniu, zarówno stopień jednolitości funkcjonalnej, jaki przedstawiać może „poznawczy tandem człowiek—maszyna”, jak i te wszystkie stopnie swobody, o które wzbogaca się pracujący w takich warunkach mózg ludzki. To tylko — podkreślamy — w początkowych stadiach językowej „dychotomii”. O dalszych jej etapach trudno dziś powiedzieć cokolwiek konkretnego.

Cóż jednak o tej perspektywie orzeknie filozof? Próżno będzie konstruktor przedstawiał filozofowi owoce swoich działań, wskazując, w jakiej mierze odpowiedzi na klasyczne pytania filozofii zależą od technologicznie konstruowalnych warunków brzegowych (to, czy nihil est in intellectu, quod non fuerit prius in sensu, zależy także od konkretnej charakterystyki przedprogramowania chromosomowego mózgów; odpowiednia nadmiarowość takiego przedprogramowania może udostępnić mózgom „wiedzę syntetyczną a priori”). Sukces budowniczego maszyn gnostycznych uzna filozof za klęskę wszelkiego w ogóle myślenia, także praktycznego, skoro samo siebie z kreacji nawet instrumentalnych prawd wyzuło. Konstruktor, którego pradziadek łamał w swoim czasie z żalu ręce nad żaglowcami, ale budował parowce, dzieli zatroskanie, lecz nie podziela zastrzeżeń.

Filozof będzie głuchy na argumenty konstruktora, ponieważ — gardząc myśleniem, względem człowieka usamoczynnionym i uzewnętrznionym —sam chce wszystko, co istnieje, przemyśleć, a to, stwarzając system odpowiedni, czyli strukturę znaczącą. Lecz jak mają się właściwie do siebie systemy mniej lub bardziej odmienne? Każdy może uznać arbitralnie, że zajmuje — względem innych — „meta” pozycję wyróżnioną i jedynie ważną. Znajdujemy się więc w serii procesów kołowych, a chociaż krążenie takie jest pasjonujące, co z niego, kiedy każde stanowisko okazuje się do uargumentowania, byle niesprzeczne wewnętrznie. Myśl, która chce się do raju pewności dostać, rozmaicie go umiejscawia, mapa zaś owych lokalizacji, czyli historia filozofii, jest poszukiwaniem — w języku — tego, co, jeśli gdziekolwiek, poza nim się mieści. Nie brak i stanowiska, zgodnie z którym metafizyki — to w podświadomości wylęgłe, a przez świadomość w język przyodziewane stwory hiponoiczne, czyli okazują się metafizyki w takim rozumieniu —najlogiczniejszymi i najbardziej uporczywymi ze snów naszych. Ten po psychoanalitycznemu kompromitujący punkt widzenia, który pracę jego czyni snem uściślonym, filozof pogrąży zaraz, klasyfikując psychoanalizę w sposób należycie poniżający. Świetna, trochę jałowa, lecz kulturotwórcza zabawa, złożona z przejść wewnątrz układu, w którym arbitralna zmiana pozycji pociąga za sobą transformację perspektywy tak oceniającej, jak i poznawczej. Myślenie, które na wylot przez nas nie przechodzi po to, aby się w działanie sprawcze (lub sprawdzające) obrócić, okazuje się dojmująco bezbronne. To, co w systemach klasycznych metafizyk nieprzemijalne, czerpie moc odżywczą korzeniami, zapuszczonymi w luzy semantyczne języka,

który diachroniczną swoją uniwersalność, kolejne kultury sprzęgającą, salwuje nieostrością zarazem przystosowawczo—rozciągliwą i dającą pozory twardego oparcia, ponieważ można zeń nie tylko czerpać znaczenia zastane, ale i nowe weń wkładać, w aktach, które mają być odkryciami, a są tylko arbitralnością tym groźniejszą, w im większym stopniu bezwiedną. Jest tedy podobne filozofowanie gruntowaniem bezdni, ponieważ owe „dna”, które się w materiale językowym utwierdza, nie są konieczne: każde można przebić, aby „wyjść dalej”, każde — zakwestionować. Skąd zaciekłość podobnego postępowania? Nie trzeba przyzywać nowych bytów dla jej wyjaśnienia: jest to, podobnie jak każdy akt, który życia ani nie wszczyna, ani go nie podtrzymuje — rozpusta po prostu, przyznamy chętnie, rozpusta szlachetniejsza od innych, w której język pełni rolę gotowego na wszystko partnera, logika — Kamasutry, absolut zaś — rozkoszy, przez to do. wyuzdania wyszukanej, że bezpłodnej zawsze. Zapewne, nie można żyć bez filozofii i nie jest prawdą, iż należy primum edere, deinde philosophari, albowiem już niby prosta czynność jedzenia implikuje cały pęk kierunków od empiryzmu po pragmatyzm, czym innym jest atoli owo minimum filozoficzne, które każdy system działań wewnętrznie scala, a zewnętrznie nakierowuje, czym innym zaś — destylowanie i maceracja języka, żeby się poty ulatniał, aż sama pewność pozostanie, co chuć poznawczą zaspokoi. Konsekwentne do końca zabarykadowanie się w języku nie jest możliwe. Prowadzą zeń dwa wyjścia —jedno w świat realnych działań, drugie — w świat bytów, których język rzekomo nie produkuje, a tylko istnienie ich wykrywa. Fenomenologowie grozili, że rezygnacja z suwerenności świata prawd logikomatematycznych wtrąci człowieka w przypadkowość animalną, lecz nie musimy wybierać między członami podsuniętej przez nich, a rzekomo niezniszczalnej alternatywy „człowiek, istota akcydentalna” i „człowiek, rozum konieczny „.ponieważ jednocześnie i jedno, i drugie zachodzi. Bez języka niepodobna, jak już wiemy, konstruować, nawet jeśli się jest nieośobowym budowniczym. Gdy zatem regułom, będącym molekularną transpozycją składni i logiki, są podporządkowane nawet aminokwasy i nukleotydy w ich dyskursach embriogenetycznych, czy nie jest więcej niż prawdopodobne, że —będąc fenomenem adaptacyjnym ziemskim, i w tym sensie przypadkowym — jest język zarazem zjawiskiem uniwersalnym aż kosmicznie? A to, ponieważ podobieństwo środowisk planetarnych sprawia, że powstające w nich układy antyentropijne muszą wytwarzać tak aproksymujące środowisk owych odwzorowania, że język, logika, matematyka okazują się odległymi pochodnymi samej Natury dlatego, bo inaczej nie jest możliwe przeciwstawianie się jej fluktuacjom, niszczącym wszelkie uorganizowanie. Język sprawczy bioewolucji wytwarza, jako pierwszą swą pochodną, język układu nerwowego, kody .neuralne, sterowania singularnego (w relacji „organizm—organizm” oraz „organizm—środowisko”), jako drugą zaś —język naturalny, dzięki usymbolicznionej eksterioryzacji neuralnych kodów, posługującej się dowolną ilością zaadaptowanych odpowiednio kanałów zmysłowych (mowa dźwiękowa, wzrokowa, taktylna itp.). Okazuje się zatem logika zrelatywizowaną nie do gatunku Homo Sapiens, lecz do materialnego Wszechświata, przy czym może naturalnie istnieć cały zbiór czynnościowo, choć niekoniecznie strukturalnie podobnych logik, sprawnych, bo w ewolucjach — odsianych. Wynika z podobnej, pod kosmiczny pułap wyniesionej komparatystyki lingwistycznej, że upośrednionymi, to jest „nieautonomicznymi bytowo”, są wszystkie w ogóle języki — chromosomowe, neuralne, jak i naturalne — ponieważ stanowią systemy do konstruowania — przez selekcję i organizację elementów —struktur, którym tylko realny świat może kłam zadać lub przyznać rację istnienia. Kozmaity jest tylko stopień upośrednienia, falsyfikacyjnej okólności, sprawiający, że rozrzut wypowiedzi jest największy w języku naturalnym dlatego, ponieważ kryteria poprawności funkcjonowania są w językach embriogenezy oraz neuroregulacji daleko mocniejsze niż w mowie naturalnej. Innymi słowy: „empirycznie wywrotne” są wszystkie języki, lecz naturalny posiada, oprócz kryteriów „przeżywalności” empirycznej i logicznej, także kulturowe — dlatego właśnie potwory biologiczne nie są zdolne do życia, w przeciwieństwie do potworów językowego nonsensu lub wewnątrz—kulturowej iluzji. Karą za złe konstruktorstwo jest w języku biologii kalectwo lub śmierć. Za grzech analogiczny nie przychodzi metafizykom tak ciężko pokutować, ponieważ środowisko umysłów ludzkich jest niezrównanie bardziej liberalne dla wegetujących (lub pokutujących) w nim znaczeń aniżeli środowisko naturalne dla żywych ustrojów.

Możemy tylko do następnych pokoleń taki zaadresować program, z konieczności ogólnikowy. Skalę, przedstawioną na początku tych rozważań, należy zamknąć w kształt koła. Proces językotwórstwa zapoczątkowuje powstanie informacji dziedzicznej. Język jej sprawstwa — pierwszego, apsychicznego poziomu — to efekt kumulatywnego nagromadzenia wiedzy, wynikłej ze „spenetrowania”, metodą prób i błędów, obszaru zawartego między fizyką (także kwantową) a chemią polimerów i koloidów pewnego podzbioru pierwiastków w niewielkim zakresie temperatur i energii. Po kilku miliardach lat doprowadza on do wyniknięcia — na poziomie zbiorów społecznych —języka naturalnego, częściowo rozumiejącego, a częściowo sprawczego. Z kolei język ów, aby przekroczyć ograniczenia formalne, którym się poddaje, dążąc do zdobycia niezbędnej w konstruktorstwie precyzji, winien wytworzyć — za pośrednictwem narzędzi, zautonomizowanych informacyjnie poprzez osadzenie ich w pozamózgowych systemach materialnych — języki sprawcze „następnego rzutu”, które — mimochodem niejako — przekroczą granice „rozumienia” czy „zrozumiałości” i za tę cenę uda się, być może, wejść na piętro uniwersalności kreacyjnej wyższe od tego pierwszego, chromosomowego, które wszczęło w sobie całe owo uniwersum przemian informacyjnych. Język ów będzie słownikowo i składniowo bogatszy od obu swoich poprzedników, podobnie, jak język naturalny bogatszy jest od języka

dziedziczności. Cała ta ewolucja jest aspektem informacyjnym procesów wynikania układów wyższej złożoności z prostszych, o których to procesów prawach systemowych nie wiemy nic, ponieważ wobec zjawisk opatrzonych antyentropijnym gradientem wzrostu fizyka z termodynamiką zachowują na razie rodzaj „niechętnej neutralności”. A że nierozważne byłoby dalsze orzekanie czegokolwiek w przedmiocie tak ciemnym, trzeba w tym miejscu zamilknąć.


Inżynieria transcendencji

 

Wspomnieliśmy poprzednio, że obok „hodowli informacyjnej” istnieje też inna możliwość otamowania lawiny informacyjnej. Obecnie ją ukażemy. Uczynimy to na przykładzie szczególnym, ontologicznym nawet. W ten sposób wprowadzimy Czytelnika w samą głąb przyszłych możliwości. Nie oznacza to, abyśmy uważali plan, który opiszemy, za godny realizacji. Jednakże warto go zademonstrować choćby dla ukazania rozmachu możliwych działań pantokreatycznych.

Słyszymy dzisiaj, że powszechnie dokonujące się odcięcie aktualnej rzeczywistości od transcendencji w zgubny sposób podważa świat trwałych wartości. Skoro istnieje tylko doczesność, skoro w niej tylko można poszukiwać pełni, jedyne szczęście, jakie może nam być dane, jest czysto cielesne. Niebiosa niczego nam nie objawiły, brak śladów wskazujących na potrzebę poświęcenia się celom wyższym, pozamaterialnym. Urządzamy się coraz wygodniej, budujemy coraz piękniej, wymyślamy coraz szybciej zmieniające się, coraz bardziej efemeryczne mody, tańce, gwiazdy jednego sezonu, bawimy się, rozrywka z improwizacji lunaparkowej XIX wieku staje się przemysłem o coraz doskonalszej technice, panuje kult maszyn, zastępujących człowieka przy warsztacie, przy kuchni, na polu, jak gdyby ściganym ideałem była atmosfera królewskiego dworu, krzątliwej bezczynności dworaków, która ma się rozciągnąć na cały świat: za pięćdziesiąt, najwyżej za sto lat takimi dworakami będą cztery miliardy, pięć miliardów ludzi. Zarazem jednak pojawia się uczucie pustki, powierzchowności, blichtru, szczególnie dojmujące w tych cywilizacjach, które większość kłopotów prymitywnych, jak głód i nędza, mają poza sobą. Wśród oświetlonych podwodnie basenów kąpielowych, chromów, plastyków, przeszywa nagle myśl, że ostatni nędzarz, przyjmujący swój los dobrowolnie, aktem tym zmieniając go w ascezę, bo wierzył w wiekuistą szczęśliwość, na której osiągnięcie czeka na tym padole cierpień, jakże krótkich, ów nędzarz, zapatrzony w bezkres oczekującej go transcendencji, był niezrównanie bogatszy od człowieka współczesnego, którego umysł karmiony jest papką telewizyjną, a żołądek smakołykami z egzotycznych krajów. Czas wolny staje się obszarem do wypełnienia, a w gruncie rzeczy próżnią, skoro marzenia dzielą się na takie, które można zrealizować zaraz — przez co przestają być marzeniami — i takie, których nieosiągalność jest oczywista. Ostatnim bożkiem na pustoszejących ołtarzach jest własne ciało, jego młodość, już nikomu innemu nie trzeba służyć, o nikogo starać się. Jeśli nic się nie odmieni — powiadają nam liczni intelektualiści Zachodu — człowiek utonie w konsumpcyjnym hedonizmie, i żeby chociaż towarzyszyła temu rozkosz, ale gdzież tam, zanurza się w tym wszechusłużnym komforcie coraz bardziej znudzony, wyjałowiony, działają jeszcze przez inercję manie gromadzenia pieniędzy, lśniących przedmiotów, ale te czary cywilizacji okazują się bezradne, nic nie wskazuje co robić, do czego dążyć, o czym marzyć, jaką mieć nadzieję. Cóż pozostaje? Lęk przed starością, przed chorobą, pigułki, przywracające równowagę umysłowi, który ją traci, bezpowrotnie odcięty od transcendencji.

Bezpowrotnie…? A przecież można by ją stworzyć. Nie — nie w przenośni, nie tak, aby praktykować jakieś wierzenia, jak się uprawia poranną gimnastykę, dla zdrowia. Wiara musi być prawdziwa. A zatem stwórzmy dla niej podstawy niewzruszone. Zbudujmy nieśmiertelność, wiekuistą sprawiedliwość, która będzie rozdzielała nagrody i kary. Gdzie mamy to wznieść? Ależ, oczywiście, na tamtym świecie…

Nie żartuję. Można zbudować „tamten świat”. W jaki sposób? Za pomocą cybernetyki…

Proszę sobie wyobrazić system większy od planety, układ o najwyższej złożoności. Programujemy go tylko ramowo, ogólnie. Niechaj powstaną w nim, na skutek raz uruchomionej ewolucji, krajobrazy i morza, piękniejsze od naszych, i myślące organizmy. Niech mają do swej dyspozycji otoczenie —wewnątrz układu, rzecz jasna. O pierwocinach takiego procesu mówiliśmy już: podzieliło się wówczas maszynowe procesy na dwie części, jedną stanowiły organizmy, drugą — ich otoczenie.

Nowa maszyna jest ogromem. Nadto posiada jeszcze trzecią, uzupełniającą część: Tamten Świat. Kiedy indywiduum — myśląca istota — umiera — gdy kończy się jej egzystencja doczesna, gdy ciało ulega unicestwieniu, osobowość dostaje się specjalną drogą w obręb trzeciej części. Tam działa Sprawiedliwość, kara i nagroda, tam jest Raj i gdzieś, tajemniczy, niepojmowalny Stwórca Wszystkiego. Może też być inaczej; ta trzecia część może nie mieć dosłownych odpowiedników w żadnej ziemskiej religii. Zresztą, możliwości są niczym nie ograniczone. Połączenie — z „drogimi nieobecnymi” — Tam? Ależ oczywiście. Rozjaśnienie ducha w obszarach trwania wiekuistego, poszerzenie indywidualnych zdolności pojmowania i przeżywania? Nic prostszego: osobowość przechodząca do „tamtego świata” rozwinie odpowiednie „podsystemy emocjonalno—intelektualne”. A może wolimy Nirwanę? Pośmiertne zespolenie wszystkich osobowości w jednym czuwającym Istnieniu? I to da się zrealizować. Takich światów można zbudować wiele. Można stworzyć kolejne typy ich i badać, w którym też „suma szczęścia” będzie największa. Wartości „wskaźnika felicytologicznego” będą nam przewodnikiem konstruktorskim. Można stworzyć dla dowolnie stworzonych istot dowolne, oczekujące ich cybernetyczne raje, czyśćce, piekła, a „selektory”, pełniące poniekąd rolę świętego Piotra, będą na granicy „tamtego świata” odpowiednio kierowały — potępionych i błogosławionych. Można skonstruować też Sąd Ostateczny. Wszystko.

Dobrze, powiadamy, niech będzie nawet, że ten szalony eksperyment można przeprowadzić, ale co nam z tego? I po co to w ogóle robić?

Ależ to tylko faza wstępna…

Niech jakieś pokolenie istot rozumnych, podobnych do nas, za tysiąc lub za sto tysięcy lat, będzie zdolne zbudować taką maszynę. Zresztą, powtarzam wciąż „maszyna”, „maszyna” — bo nie mamy na to słów. Czym byłby drapacz chmur dla jaskiniowca? Podniebną jaskinią? Górą? Proszę sobie wyobrazić sztuczny park. Wszystkie drzewa prawdziwe, ale przeniesione z daleka. Albo sztuczne morze. Albo satelitę. Są metalowe. Ale jeśli będzie zbudowany z tego samego materiału, co Księżyc, i tak samo wielki, w jaki sposób poznamy jego „sztuczność”? Mówiąc „sztuczne”, rozumiemy zbyt często „niedoskonałe”. Ale tak jest tylko teraz. Zamiast „maszyna” może będzie więc lepiej powiedzieć „stworzone”. To będzie cały świat, z własnymi prawami, nieodróżnialny od „prawdziwego”, bo taka będzie umiejętność Konstruktorów. Zresztą, jeśli o stronę techniczną Kreacji idzie, odsyłam do rozdziału następnego (Inżynieria kosmogoniczna).

Tak więc twórcy owego świata powiedzą sobie: Te istoty, które tam mieszkają, nie wiedzące nic o nas, o naszej ułomnej cielesności, która kończy się tak szybko i tak na zawsze — o ileż bardziej są od nas szczęśliwe! Wierzą w transcendencję, i wiara ta jest w pełni umotywowana. Wierzą w byt pozagrobowy — jakże słusznie! W Tamten Świat, w Nagrodę i Karę, we Wszechmiłosierdzie i Wszechmoc Najłaskawszą — za czym, po śmierci, przekonują się, oni i ich niedowiarkowie, że wszystko to jest naprawdę… Naszym dzieciom, niestety, nie będzie dane żyć w takim świecie. Chociaż… zaraz. Przecież moglibyśmy właściwie je tam przenieść? Nieprawdaż? Kim są dzieci? To istoty podobne do nas, swym wyglądem, umysłem, uczuciami. W jaki sposób powstają? „Programujemy” je sposobem, jaki dała nam Ewolucja, poprzez stosunek płciowy — jest to programowanie probabilistyczne, zgodne z regułami mendlowania cech i genetyki populacyjnej. Doskonale znamy już własną plazmę dziedziczną. Zamiast poczynać dzieci jak dotąd, te same cechy, które tkwią w nas, w potencjalnych ojcach i matkach, utrwalone w komórkach jajników i jąder, dokładnie te same cechy przenieśmy — tam, w głąb „stworzonego”, które specjalnie w tym celu zaplanujemy. Będzie ono Ziemią Obiecaną, akt zaś nasz — wielkim do niej Exodusem. W ten sposób ludzkość, następnymi pokoleniami, zdobędzie Tamten Świat, Transcendencję, wszystko, o czym marzyła od wieków… i to będzie prawdą,, a nie złudzeniem, realnością, oczekującą pośmiertnie, a nie mitem, który ma skompensować namiastkowe nasze biologiczne ułomności!

Czy to niemożliwe? Myślę że w zasadzie przynajmniej, jest to możliwe. Owo „stworzone”, ów świat wraz ze swoim piętrem wiekuistym, transcendencją, będzie odtąd mieszkaniem ludzkości szczęśliwej…

Ależ to oszustwo, powiadamy. Jak można uszczęśliwiać za pomocą oszustwa? Konstruktorów bawi ten zarzut. — Dlaczego „oszustwo”? Ponieważ ten świat ma inne prawa niż nasz — ponieważ jest od naszego o całą, urzeczywistnioną transcendencję bogatszy?

Nie, odpowiadamy, dlatego, ponieważ nie jest prawdziwy. Wyście go stworzyli. Tak, stworzyliśmy. A kto stworzył wasz, „prawdziwy” świat? Jeśli miał swojego sprawcę, byłżeby tym samym „oszustwem”? Nie? A więc na czym polega różnica? Stworzyliśmy cywilizację, my i wy, czy ona też jest oszustwem? Jesteśmy wreszcie, jako istoty biologiczne, rezultatem procesu naturalnego; ukształtował nas miliardem losowych prób; co w tym złego, jeśli proces ten sami pragniemy wziąć w rękę?

Nie, mówimy, nie o to chodzi. Te istoty będą zamknięte, uwięzione w tym waszym świecie, w tym kryształowym pałacu doskonałego spełnienia, którego brak poza jego granicami.

Ależ to sprzeczność, odpowiadają nam. Istotnie, dobudowaliśmy temu światu „wszechspełnienie”, a więc jest on od „naturalnego” bogatszy, a nie uboższy. On nie udaje, nie imituje niczego: jest sam sobą. Śmierć i życie są w nim takie same, jak w naszym świecie, tyle tylko, że nie stanowią końca… „Zamknięci…?” Co wiecie o jego rozmiarach? Może dorównuje Metagalaktyce? Czy uważacie się za uwięzionych w niej, za więźniów gwiazd, które was otaczają?

Ależ ten świat, to nie jest prawda! — wołamy.

Co to jest prawda? — odpowiadają. To, co można sprawdzić. A tam można sprawdzić więcej niż tutaj, bo tu wszystko kończy się na granicach empirii, i rozsypuje wraz z nią, a tam sprawdza się nawet wiara!

Dobrze — odpowiadamy — już tylko ostatnie pytanie. Ten świat, swoją doczesnością, równoważny jest naszej, czy tak? Tak. A więc w gruncie rzeczy nie ma między nimi żadnej różnicy! W waszym świecie można tak samo zwątpić, tak samo utwierdzić się w przekonaniu o bezmyślności Stworzenia, jak w tym, zwykłym. To, że owo zwątpienie rozwiewa się po śmierci, w niczym nie może wpłynąć na samą doczesność. Tak więc, w waszym nowym, wspaniałym świecie może dojść do powstania tak samo hedonistycznej, konsumpcyjnej, zagubionej cywilizacji, jak w starym… Więc po co go budujecie? Tylko po to, aby stworzyć szansę „miłego, pośmiertnego rozczarowania”…? Bo chyba już pojmujecie, że jakiekolwiek misteria wieczności będą się działy w trzeciej, „transcendentnej” części waszego świata, w najmniejszej mierze nie naruszy to jego biegu doczesnego. Ażeby było inaczej, ten wasz świat, już w swojej doczesności, musi nosić znaki i ślady wyraźnie głoszące to, że istnieje jego metafizyczne przedłużenie. A zatem nie może on być w swej doczesności identyczny z naszym światem.

Tak jest — odpowiadają Konstruktorzy.

Ale przecież i nasz świat może mieć „metafizyczne przedłużenie”, tyle tylko, że współczesna cywilizacja nie wierzy w jego realność! — wołamy. Czy wiecie, coście zrobili? Powtórzyliście, atom po atomie, to, co jest! Więc teraz, jeżeli chcecie uniknąć takiego daremnego plagiatu, musicie dodać waszej konstrukcji nie tylko „tamten świat”, ale przede wszystkim odmienić jego materialną podstawę, jego doczesność! Więc musicie wprowadzić weń cuda, to znaczy odmienić prawa natury, to znaczy fizykę, to znaczy — wszystko!

Ależ tak — odpowiadają Konstruktorzy. — Wiara bowiem bez pośmiertnego spełnienia znaczy docześnie niezrównanie więcej aniżeli spełnienie, aniżeli transcendencja nie poprzedzona wiarą… Jest to problem nader ciekawy. ‘Istnieje jako realny, to jest dający się rozstrzygnąć, tylko dla obserwatora, który stoi na zewnątrz danego świata — a raczej obojga światów, przyrodzonego i nadprzyrodzonego. Tylko taki zewnętrzny obserwator mógłby wiedzieć, czy wiara jest zasadna, czy też bezzasadna. Co się tyczy waszej propozycji, abyśmy wprowadzili w „nowy świat” cuda, musimy ją odrzucić. Czy was to dziwi? Cuda nie są potwierdzeniem wiary. Są jej przekształceniem w wiedzę, bo wiedza opiera się na faktach obserwacyjnych, jakimi stałyby się wówczas „cuda”. Uczeni zrobiliby je częścią fizyki, czy chemii, czy kosmogonii; a gdybyśmy nawet wprowadzili tam proroków, poruszających góry, niczego to nie odmieni. Co innego bowiem w świętych pismach, w aureoli legend, otrzymywać przekazy o takich czynach i sprawach, a co innego doświadczyć ich aktualnie. Można tylko — albo stworzyć świat z wiedzą o istnieniu poza nim transcendencji, albo świat z możliwością wiary w transcendencję, która albo istnieje, albo nie istnieje, ale przekonać się o tym, dowieść prawdziwości jednego lub drugiego, niepodobna. Albowiem udowodnić wiarę, to znaczy zniszczyć ją, jest ona bowiem tylko w pełnej absurdalności i bezzasadności, w buncie przeciwko empirii, w rozmodlonej nadziei, wstrząsanej atakami zwątpienia, w trwożnym oczekiwaniu, a nie w sytej pewności, zagwarantowanej „poglądowymi pomocami” w rodzaju cudów. Jednym słowem, świat z doczesną wiedzą o transcendencji, o tym, jaka ona jest, to świat bez wiary.

Na tym kończy się dialog. A wniosek z niego ten, że źródłem Wielkiego Niepokoju i dorównującej mu, jako niebezpieczeństwo, bezmyślności jest nie „amputowanie” człowiekowi przez materializm transcendencji, ale jak najbardziej doczesna dynamika społeczna, i nie renesansu transcendencji, ale renesansu społeczeństwa potrzeba. .


Inżynieria kosmogoniczna

 

Ukazaliśmy daremność pantokreatycznego przedsięwzięcia, którego celem było spełnienie marzeń o wieczności Tamtego Świata. Daremność owa

dotyczy jednak, o czym warto pamiętać, nie strony technicznej planu, wynika ona stąd, że obecność „transcendencji”, niepodległa empirycznemu sprawdzeniu doczesnemu, ma akurat taki sam wpływ na losy mieszkańców owego świata, jak jej pozaświatowa nieobecność. Czyli — wszystko jedno, czy „tamten brzeg” istnieje, czy nie, skoro tutaj nie można się o tym przekonać. A jeśli można, transcendencja przestaje być sobą, tj. groźną zarazem i wspaniałą obietnicą, zamieniając się w takie przedłużenie bytu, które unicestwia wszelką wiarę.

Za bardziej więc racjonalną i godną uwagi uważam pantokreatykę poświęconą stwarzaniu światów całkowicie „doczesnych”. Osoby oddające się tym zadaniom, to Inżynierowie—Kosmogonicy. Słowo „kosmogonik” pochodzi od terminu „kosmogonika”, na podobieństwo elektroniki, bo jedna i druga tak samo oznaczają działania konstruktorskie. Specjalista od kosmogonii bada powstawanie światów, Technolog–Kosmogonik światy stwarza. Jest to, zauważmy, twórczość prawdziwa, a niekoniecznie tylko powtarzanie Natury w taki czy inny sposób.

Przystępując do budowy świata, Kosmogonik ustalić musi wstępnie, jaki ten świat ma być: ściśle deterministyczny czy indeterministyczny, skończony czy nieskończony, obwarowany określonymi zakazami, to jest (gdyż to na jedno wychodzi) przejawiający stałe regularności, które można nazwać jego prawami, czy też same owe prawa mają ulegać zmianom. Zmienność niczym nie skrępowana oznaczałaby (jak już niestety mówiliśmy) chaos, brak następstw przyczynowych, brak związków, a więc niepodległość wszelkiej regulacji. Chaos, zauważmy zupełnie już nawiasowo, jest jedną z rzeczy, a właściwie jednym ze stanów, które stworzyć najtrudniej, ponieważ budulec (który bierzemy wszak z Natury) jest nacechowany ładem i resztki tego ładu skłonne są przesączać się w podwaliny konstruowanego. O czym może się przekonać każdy, nawet w eksperymencie tak prostym, jak programowanie maszyny cyfrowej, aby dała nam w rezultacie długi ciąg liczb całkowicie losowy, tj. chaotyczny. Będzie on bardziej przypadkowy niż ciąg, jaki by potrafił „z głowy” wziąć człowiek, bo regularności jego procesów psychicznych w ogóle na żadne działanie „puste”, najzupełniej przypadkowe, nie pozwalają. A jednak nawet maszyna, której nakazaliśmy postępowanie chaotyczne, nie jest w nim doskonała. Inaczej układacze tablic liczb losowych nie mieliby z tym zadaniem tych wszystkich kłopotów, jakie ich dręczą*.

Konstruktor nasz rozpoczyna działania od nałożenia pęt na różnorodność. Dzieło jego winno posiadać wymiary przestrzenne i czasowe. Mógłby co prawda zrezygnować z czasu, ale to ograniczyłoby go nadmiernie: gdzie nie ma czasu, tam nic się nie dzieje (łaknąc ścisłości, powinniśmy wyrazić to właściwie na odwrót: gdzie nic nie zachodzi, tam nie ma upływu czasu). Czas nie jest to bowiem wielkość, wprowadzana w system (w świat) z zewnątrz, lecz jego cecha immanentna, wynikająca z charakterystyki zachodzących przemian. Można stworzyć kilka czasów, i to o różnych kierunkach biegu, przy czym jedne mogłyby być odwracalne, a drugie nie. Oczywiście, ze stanowiska obserwatora, zewnętrznego względem takiego świata, płynie w nim tylko jeden czas, ale to dlatego, ponieważ ów obserwator mierzy go według własnego zegara, jak również dlatego, ponieważ osadził tamte, rozmaite czasy, w tym jedynym, jaki jest mu dany przez Naturę. Poza Naturę bowiem wykroczyć nasz Kosmogonik nie może; buduje w jej wnętrzu i z dostarczonych przez nią materiałów. Ponieważ jednak Natura zbudowana jest hierarchicznie, może on umieścić swoją działalność w obrębie jej wybranych poziomów. Systemy jego mogą być otwarte lub zamknięte; jeśli są otwarte, a więc jeśli można z nich obserwować Naturę, ujawnia się ich podrzędność względem tego Wielkiego, w czym konstrukcja jest osadzona. Dlatego zapewne poświęci się raczej budowaniu układów zamkniętych.

Nim powiemy kilka słów o celach takiej budowy, zapytajmy o jej trwałość. Otóż, pojęcie trwałości jest względne. Atomy Natury są względnie trwałe, względnie tylko, ponieważ olbrzymia większość pierwiastków to gatunki rozpadające się po dłuższym lub krótszym czasie. Pierwiastków transuranowych nie ma już na Ziemi (chociaż można je syntetyzować), bo nasz układ planetarny istnieje tak długo, że owe nietrwałe transuranowce zdążyły się już rozpaść. Z kolei, nietrwałe są i gwiazdy; żadna nie może istnieć dłużej niż około kilkunastu miliardów lat. Inżynier–Kosmogonik dysponuje wiedzą kosmogoniczna niezrównanie większą od naszej, wie zatem, albo całkiem dokładnie, albo tylko z większym niż my przybliżeniem, jak jest, jak było i jak będzie. To znaczy, czy Kosmos jest tworem pulsującym jako całość skończona, lecz nieograniczona, i od skurczów „niebieskich” (kiedy niebieszczeje światło dośrodkowo zbiegających się galaktyk) przechodzi co jakieś dwadzieścia miliardów lat do „czerwonych” (kiedy to światło, o falach „rozciągniętych” efektem Dopplera, przesuwa się w stronę przeciwną na spektrogramach); czy też może zachowuje się nasz Wszechświat inaczej. W każdym razie myślę, że trwanie jednej fazy, tych dwadzieścia miliardów lat, jest praktycznie granicą czasową jego konstruktorskich obliczeń, bo jeśliby nawet w tym czasie nie miało dojść do „błękitnej kompresji”, która kolosalną zwyżką temperatur unicestwi zarówno życie, jak i wszystko, co ono stworzyło, to w każdym razie takiego „przebiegu” nie wytrzymają nawet atomy, z których budował, niczym my z cegieł. Pantokreatyka nie stwarza zatem wieczności, ponieważ to niemożliwe. Szczęśliwie tak się składa, że to i niepotrzebne. Z tym bowiem, kto chciałby osobnicze trwać przez miliardolecia, zdając sobie sprawę z tego, co właściwie trwanie takie oznacza (a żaden człowiek nie wyobrazi sobie tego nigdy), z tak osobliwą istotą nie mamy nic wspólnego.

Mówiliśmy o trwałości, a zaczęli od atomów. Przeszliśmy od nich od razu, i przedwcześnie, do całego Kosmosu. Atomy są trwałe; mniej trwałe od nich są gwiazdy i planety; jeszcze krócej ciągną się epoki geologiczne; nareszcie, raczej skromna Jest długowieczność gór, bo obliczana tylko dzie siatkami milionoleci. Rozsypują się w tym czasie i zmywane wodą deszczów i strumieni, mniej lub więcej równomierną warstwą pokrywają kontynenty i dno oceaniczne. Że zaś oceany same i lądy zmieniają swe kształty wciąż, i to względnie (w skali naszej) szybko, bo już w pojedynczych milionach lat, to skoro Kosmogonik planuje swe budowle na taki mniej więcej czas naprzód, jaki trwała ewolucja, która go stworzyła, więc na jakieś trzy miliardy lat, albo i cztery, chyba zgodzimy się, że choć nie całkiem skromne, nie jest to przedsięwzięcie zbyt zuchwałe. Zuchwałe byłoby dopiero całkiem inne: zmierzające mianowicie do tego, aby nie budować z Natury i w jej obrębie, lecz pokierować nią, czyli ewolucję wziąć w ręce — już nie biologiczną, czy homeostatyczną, ale ewolucję całego Wszechświata. Istotnie, taki plan, aby stać się sternikiem Wielkiej Kosmogonii, a nie twórcą owej mniejszej, o jakiej rozprawiamy, taki zamiar byłby już godną zdumienia zuchwałością. O takim też nie będziemy wcale mówić. Czy dlatego, że to jest zupełnie, ale to zupełnie, i na zawsze niemożliwe?

Może i tak, ale na pewno ciekawe. Mimo woli nasuwają się pytania, skąd też wziąć energię dla zwrócenia przemian w pożądanych kierunkach, jakie zaplanować sprzężenia zwrotne, jak doprowadzić do tego, aby Natura kiełznała Naturę, aby sama siebie, za sprawą interwencji regulacyjnej, a nie energetycznej, kształtowała i wiodła tam, dokąd się spodoba prawdziwym już, czy raczej: ultymatywnych inżynierom dróg Wszechświata. O tym jednak wszystkim nie będziemy mówili. Wrócimy do naszych światów podrzędnych, budowanych z tego, co naturalne, nie na przekór, a tylko wewnątrz Przyrody.

Nasz Kosmogonik (zapewne bliższy nam teraz, po owej dywagacji, skorośmy zrozumieli, że nie jest on jednak od niczego niezawisły i nie ma tej, pomyślanej tylko, władzy nad kursem Wszystkiego) może realizować światy rozmaitych filozofii. O tym, co by się stało, gdyby stworzył świat „dwudzielny” z transcendencją, była już mowa. Ale może skonstruować i świat filozofii Leibnizowskiej, z jego harmonią przedustawną. Zauważmy, że ten, kto buduje taki świat, może wprowadzić w nim nieskończoną szybkość rozchodzenia się sygnałów, ponieważ w owym Kosmosie wszystko dzieje się z zaprogramowania z góry. Mechanizm tego fenomenu moglibyśmy wyjaśnić bardziej szczegółowo, ale chyba nie warto.

Niech teraz Konstruktor zapragnie uczynić swój świat mieszkaniem istot rozumnych. Co jest jego największym kłopotem? To, żeby nie poginęły od razu? Nie, ten warunek rozumie się sam przez się. Podstawowy jego kłopot tkwi w tym, aby istoty, których ów Kosmos będzie siedzibą, nie poznały się na jego „sztuczności”. Należy się bowiem obawiać, że samo domniemanie, jakoby istniało cokolwiek poza ich „wszystkością”, zapaliłoby je natychmiast do poszukiwań wyjścia z tej ich „wszystkości”. Mając się za jej więźniów, szturmowałyby zatem otoczenie, szukając drogi na zewnątrz —z prostej ciekawości, jeśli nie dla innych przyczyn. Udaremnić im tylko odnalezienie wyjścia, to obdarzyć je wiedzą o uwięzieniu z jednoczesnym odebraniem kluczy. Nie wolno więc wyjścia zamaskować ani zabarykadować. Istnienie jego należy uczynić niemożliwym do odgadnięcia. W przeciwnym razie poczują się więźniami, choćby to ich „więzienie” naprawdę było rozmiarami równe Galaktyce. Ratunek tylko w nieskończoności. Najlepiej będzie, jeśli jakaś siła uniwersalna zamknie ich świat tak, że będzie analogiem kuli, dzięki czemu można go przewędrować wszerz i wzdłuż, a nigdy nie natrafi się na jakiś „koniec”. Możliwe są też inne zastosowania techniczne nieskończoności, bo jeśli zrobimy tak, że siła nie jest uniwersalna, lecz działa na peryferii, i to w ten sposób, że zbliżanie się do „końca świata” powoduje zmniejszanie się wszystkich bez wyjątku obiektów materialnych, do tego końca nie będzie można dotrzeć akurat tak samo, jak nie można dotrzeć do zera absolutnego w świecie rzeczywistym. Każdy krok następny będzie wymagał większej energii, a sam będzie przy tym mniejszy; w naszym świecie zachodzi to w różnych „miejscach”, bo tak samo jest też z rozpędzaniem ciała do szybkości światła: ilość energii wzrasta nieskończenie, a i tak świetlnej chyżości obiekt materialny, do którego ową energię przyłożono, nie osiągnie. Ten typ nieskończoności zastosowanej jest urzeczywistnieniem ciągu malejącego o granicy zerowej. Ale może dość już takich rozważań kosmotechnicz—nych. Czy naprawdę wierzymy w szansę ich realizacji? Może i nikt dzieła takiego nie podejmie — ale z wyboru raczej aniżeli z bezsiły.

Jeśli tak, to ukażmy na przykładzie to, czego się pewno i nie zbuduje, jak nie buduje się, a w ogóle, nie robi, wielu możliwych rzeczy, co jednak dałoby się skonstruować przy obecności środków i woli.

Powiedzmy (ale to tylko dla poglądowości: inaczej w ogóle niczego sobie nie unaocznimy), że istnieje wielki, jak dziesięć Księżyców, układ złożony, homeostatyczną piramida zamkniętych w sobie i z sobą sprzężonych, w dół schodzących systemów; coś w rodzaju maszyny cyfrowej, samonaprawiającej się, samodzielnej, samoorganizującej. Z jej stu trylionów elementów jedne stanowią „planety”, inne słońca, wokół których te planety krążą, itp. Całe mrowia, całe niezliczone ulewy impulsów mkną nieustannie wewnątrz tego (może do gromady gwiazd jako do źródła energii podłączonego) ogromu, jako promienie świetlne gwiazd, jako ruchy planetarnych powłok atmosferycznych, jako organizmy tamecznych zwierząt, fale oceanów, wodospady, liście lasów, jako barwy i kształty, zapachy i smaki. I doświadczają tego wszystkiego mieszkańcy „maszyny”, stanowiący jej części. Nie są oni jej częściami mechanicznymi, nic podobnego; są oni jej procesami. Procesami o pewnej koherencji szczególnej, o takim ciążeniu, o takich związkach, że stwarzają osobowość myślącą i czujące zmysły. Tak więc, doświadczają oni swojego świata jak my — naszego, bo przecież w istocie i to, co my odczuwamy jako zapachy, wonie czy kształty, jest w ostatniej instancji tam, gdzie czuwa odbiorca wszystkiego, świadomość, niczym innym jak tylko krzątaniną bioelektrycznych impulsów w zwojach mózgowych.

Przedsięwzięcie Kosmogonika różni się w istotny sposób od poprzednio opisanych zjawisk entomologicznych tym, że fantomatyka jest łudzeniem naturalnego mózgu dzięki wprowadzaniu weń impulsów, tożsamych z takimi impulsami, jakie wpływałyby weń, gdyby ów człowiek naprawdę przebywał w materialnym otoczeniu Przyrody. Świat Kosmogonika natomiast to obszar, do którego homo naturalis, człowiek cielesny jak my, nie ma dostępu, jak promień światła nie ma dostępu do wnętrza tych procesów elektrycznych, przy których pomocy maszyna cyfrowa bada zjawiska optyczne. Podobną nieco „niewkraczalność lokalną” znamy zresztą i z naszego własnego świata, bo nie można wszak wejść ani w cudzy sen, ani w cudzą jawę, tj. w obręb świadomości, ażeby bezpośrednio uczestniczyć w jej doznaniach.

Tak zatem, w przeciwieństwie do sytuacji fantomatyzowania, „sztuczni” (jeśli chcemy tak nazwać stwarzane) są w kosmogonice zarówno świat, jak i jego mieszkańcy. Żaden z nich jednak ani nic p tym nie wie, ani nie może wiedzieć. Odczuwa on dokładnie to samo, co człowiek przeżywający jawę czy fantomatyzowany (bo wiemy już, że doznania obu nie są dla przeżywającego do odróżnienia). Podobnie też, jak my nie możemy ani wyskoczyć z własnej skóry, ani zobaczyć cudzej świadomości, tak samo mieszkańcy owej kosmo—kreacji nie mogą się w żaden sposób przekonać o jej hierarchicznym charakterze, czyli o tym, że stanowi ona świat umieszczony w innym (a mianowicie w naszym) świecie.

Nie mogą oni również dojść tego, czy i kto ich „stworzył, razem z ich kosmicznym mieszkaniem, które penetrują, jak chcą. Nas przecież nikt (tj. nikt osobowy) nie stworzył, a mimo to nie brak filozofii głoszących, że tak właśnie było, że nasz świat nie jest wszystkim, itp. itd. A przecież ludzie, którzy to głosili, mieli takie same zmysły i takie same mózgi, jak my, a nieraz były to mózgi wcale sprawne. Zapewne więc i w owym świecie znajdą się różni filozofowie głoszący podobne tezy, z tą różnicą, że będą mieli rację. Ponieważ jednak nie będzie żadnego sposobu przekonania się o dowodności tych racji, empirycy owego świata zakrzyczą ich jako metafizyków i spirytualistów. Możliwe też, że jakiś fizyk tego świata, zajmujący się badaniem materii, wykrzyknie do swych ziomków: „Słuchajcie! odkryłem, że wszyscy jesteśmy zbudowani z bieganiny elektrycznych impulsów!” W czym będzie miał słuszność, bo naprawdę istoty te, jak również ich świat, właśnie tak i z tego zostały przez Inżyniera zrobione. Odkrycie to jednak w niczym nie zmieni powszechnego przeświadczenia, że istnienie jest materialne i realne. Znów słusznie: są bowiem z materii i z energii, jak my, którzy analogicznie składamy się z próżni i elektronów, a przecież wcale nie wątpimy przez to we własną materialność.

Zachodzi tu jednak pewna różnica budowy. Otóż, ten świat i te istoty są procesami materialnymi (jak np. te procesy w maszynie cyfrowej, którymi ona modeluje rozwój gwiazdy). Jednakże w maszynie cyfrowej zestroję impulsów, stanowiących model gwiazdy, są zarazem ładunkami elektryczności biegnącymi w kryształkach tranzystorów, w próżni lamp katodowych itp. Otóż, fizycy owego świata dojdą i tego, że impulsy elektryczne, z których oni oraz świat ich są zbudowani, składają się z pewnych elementów podrzędnych: w ten sposób dojdą istnienia elektronów, atomów itp. Ale i z tego nic nie wyniknie dla ich ontologii, ponieważ kiedyśmy się sami przekonali, że atomy składają się z mezonów, barionów, leptonów itd., nie dało to podstawy do snucia jakichś wniosków ontologicznych o naszej „sztucznej” genezie.

Fakt stworzenia (a właściwie „bycia stworzonym”) mogliby fizycy owego świata odkryć dopiero przez zestawienie naszego świata prawdziwego z ich własnym. Wtedy dopiero ujrzeliby, że nasz świat ma o jedno piętro Rzeczywistości mniej od ich świata (mniej, bo oni są zbudowani z impulsów elektrycznych, a te impulsy dopiero są z tego samego materiału, co nasz świat). W przenośnym nieco sensie”, świat stworzony jest czymś takim, jak bardzo trwały, bardzo długi i bardzo logicznie spójny sen, który się nikomu nie śni, ale który „śni się sam” — wewnątrz „maszyny cyfrowej”.

Wróćmy teraz do pytania, jakie przyczyny mogą pchnąć istoty rozumne na drogę działalności kosmokreacyjnej? Może być ich chyba wiele, i różnych. Nie chciałbym zmyślać przyczyn, jakie skierują jakąś cywilizację kosmiczną w tę stronę; dosyć, jeśli mówimy o przedziale technologicznego działania; motywy wynikają w toku cywilizacyjnego rozwoju. Może będzie to obrona przed lawiną informacyjną. W każdym razie, cywilizacja potomna (tj. zaprogramowana i zamknięta w opisany sposób) „otorbi się” względem pozostałego Kosmosu i stanie się nieosiągalna dla działań zewnętrznych (sygnałów itp.). Dość jest zabawne, że ona sama z kolei może budować wewnątrz swego świata, byle był odpowiednio obszerny i bogaty w różnorodność, podrzędne, następne hierarchicznie światy, tak w sobie nawzajem osadzone, jak jedna w drugiej mieszczą się zabawki dziecinne, malowane baby z drewna.

Ażeby nie wyglądało to na majaczliwe fantazjowanie, zauważmy, że złożoność dowolnego układu musi się, jakkolwiek powoli, zmniejszać, jeśli nie dostarczać mu jej z zewnątrz (inaczej powiedziawszy, entropia układów rośnie). Im układ jest większy, tym więcej posiada możliwych stanów równowagi i tym dłużej może procesami lokalnymi pozornie wyłamywać się spod prawa entropijnego wzrostu. Lokalnie bowiem może zachodzić spadek entropii, np. w procesie ewolucji organicznej, której bilans termodynamiczny jest w skali globu ujemny, skoro doszło do wzrostu informacji przez kilka miliardów lat. Oczywiście, bilans układu całego musi być dodatni (wzrost entropii słońca jest większy bez porównania od jej ziemskiego spadku). Wspomnieliśmy o „podłączeniu” kosmogonicznej kreacji do gwiazdy jako źródła niezbędnego porządku. Równie dobrze można całą powierzchnię „sfery zewnętrznej” takiego świata uczynić „pochłaniaczem energii” płynącej z Kosmosu naturalnego. Jest to jedyna wtedy szansa dla mieszkających tam istot: albo uznają, że entropia bardzo wielkiego, czyli w tym wypadku ich własnego systemu, nie musi rosnąć, albo dojdą tego, że skądś dopływa do ich „wszystkości” energia z zewnątrz.

Powróćmy do hierarchii światów w sobie osadzonych, którą zapoczątkowała decyzja jakiejś cywilizacji kosmicznej, uważającej nasz świat za zbytnio niedoskonały. Stworzy więc ta cywilizacja „świat otorbiony nr 2”, ale i jego mieszkańcy, po jakichś milionach lat, nie usatysfakcjonowani panującymi u nich warunkami, a łaknąc lepszej przyszłości dla swego potomstwa, sporządzą dlań świat nr 3, wewnątrz i z materiałów własnego. Kolejne te światy są to niejako „kosmomelioratory”, „prostowniki zła”, „rektyfikatory ontologiczne”, czy jak jeszcze zechce je ktoś nazwać. Być może w którymś z rzędu zapanuje taka wreszcie doskonałość bytu, że dalsze zajęcia kosmokreacyjne ustaną; ustać muszą tak czy owak, bo wszak nie mogą członkowie cywilizacji nr 100 000 osadzić swych synów i córek na powierzchni atomu…

Mógłby ktoś spytać, czy wydaje mi się choć trochę prawdopodobne, że ludzie podejmą kiedyś takie, albo przynajmniej zbliżone do nich plany.

Prosto zapytany, winienem prosto odpowiedzieć. Myślę, że raczej nie. Ale jeśli sobie uzmysłowić te niezliczone całkiem światy rozumu, krążące wewnątrz gigantycznych galaktyk, których to galaktyk jest niezrównanie więcej niż puszków dmuchawca w powietrzu nad rozległymi łąkami i niż ziaren piasku na pustyniach, to sama owa liczba czyni możliwym każde nieprawdopodobieństwo — jeśli tylko jest do urzeczywistnienia. Niechby w jednej z każdego miliona galaktyk. Ale żeby w całym tym przestworze gwiazdowego prochu nikt nigdy nie powziął myśli o takim przedsięwzięciu, nie mierzył sił na takie zamiary — to wydaje mi się właśnie czymś zgoła niewiarygodnym. Zanim ktoś zaprzeczy kategorycznie, niech się zastanowi; takim namysłom sprzyjają noce lipcowe, podczas których tak potężnie ugwieżdżone jest niebo.


VIII. Paszkwil na ewolucję

Wstęp

 

Kilka milionów lat temu zaczynało się ochłodzenie nadciągającej epoki lodowcowej. Góry rosły, kontynenty podnosiły się, dżungle, wskutek wzrastającej suszy, ustępowały miejsca trawiastym równinom. W miarę stepowienia środowisko życiowe czwororękich zwierząt leśnych, którym napowietrzny byt wśród gałęzi wydoskonalił precyzję ruchów dłoni i przeciwstawił kciuk reszcie palców, oczy zaś uczynił głównym zmysłem orientacji, środowisko to, wymagające przyjmowania postawy pionowej często, a może częściej od innych, kurczyło się. Rozliczne szczepy schodziły z drzew, coraz rzadszych i mniej dających schronienia, aby próbować swych sił na odległych równinach stepowych. Przez rezygnację z pionowej postawy i twarzy, przez wtórne wytworzenie pyska podobnego do psa powstał pawian. I tylko jeden z owych opuszczających siedziby drzewne eksperymentatorów ostał się oprócz niego w żywych.

Poszukiwanie prostej linii genealogicznej człowieka jest daremne, bo próby zejścia na ziemię i chodzenia ha dwu nogach ponawiane były niezliczoną ilość razy. Aż na stepy, gdzie pasły się roślinożerne czworonogi, w tę niszę ekologiczną przedlodowcową weszły antropoidy, o niepewnym chodzie, lecz przystosowane już neuralnie do zajmowania takiej postawy, która uformowała się w gąszczach dżungli. Miały już ludzką rękę i oko, nie miały jeszcze ludzkiego mózgu. Konkurencja uprzywilejowała jego wzrost. Zwierzęta te rywalizowały, żyjąc w grupach. Dzięki osobliwym przesunięciom wewnątrz—wydzielniczym przedłużyło się znacznie ich dzieciństwo, okres zbierania doświadczeń pod ochroną grupy. Mimika i wydawane dźwięki służyły porozumieniu, które potem przejść miało w mowę. Prawdopodobnie już wtedy zyskali praludzie długowieczność, znaczną w stosunku do antropoi—dów. W walce o byt przeżywały bowiem grupy posiadające w swym obrębie osobniki o największym doświadczeniu, to znaczy najstarsze, najdłużej żyjące. Pierwszy bodaj raz w ciągu ewolucji doszło zatem do wyselekcjonowania gatunku obdarzonego długą starością, gdyż po raz pierwszy okazała się biologicznie cenna, jako skarbnica informacji.

Ów prolog człowieka — to przejście od akcydentalnego, „małpiego” używania narzędzi do ich wytwarzania. Wyszło ono z kontynuowania technologii „małpiej” — rzutu kamieniem, ostrym drzewcem, który jest zaczątkiem działania na odległość. Przejście do paleolitu, to powstanie pierwszych maszyn prostych, to wykorzystanie procesów świata otaczającego: ognia, jako narzędzia homeostazy, uniezależniającego od klimatu, wody, jako środka transportowego. Tryb życia ulegał zmianie z myśliwskiej włóczęgi na koczownictwo, potem — osadnictwo, kiedy z żywienia się roślinami przeszli ludzie do ich uprawy; było to już w milion lat po początku. Był to już neolit.

Zdaje się, że nie pochodzimy od Neandertalczyka, ale że formę tę, z nami tak blisko spokrewnioną, unicestwiliśmy. Niekoniecznie jako zabójcy czy zjadacze; walka o byt przejawia się w rozmaitych formach. Neandertalczyk był tak bliski człowieka pierwotnego, homo primigenius, że się te szczepy mogły krzyżować, co prawdopodobnie zachodziło. Ale choć Neandertalczyk, zagadkowy przez znaczną pojemność swej czaszki, większą od przeciętnej u człowieka współczesnego, wytworzył własną kulturę, zginął wraz z nią. Człowiek pierwotny wytworzył nową. Niewiele minęło potem czasu, w skali geologicznej, do rozpoczęcia się pierwszej, właściwej fazy rozwoju technologicznego. Kilka tysięcy lat szeregu cywilizacji, osiadłych głównie w pasie podzwrotnikowym. Są one przecież chwilą w porównaniu z tym milionem, który ukształtował człowieka i grupę socjalną.

W tej pierwszej fazie przychodzi najpierw użycie „naturalnych” źródeł energii pozaludzkiej (zwierzę pociągowe), ale i ludzkiej (niewolnik). Wynalazek koła i ruchu obrotowego, ominięty przez niektóre wysoko nawet rozwijające się cywilizacje (Ameryki Środkowej) staje się podstawą budowania maszyn o działaniu wąskim, niezdolnym do samoadaptacji. Wykorzystuje się energię otoczenia — wiatru, wody, węgla kamiennego; niedługo potem — elektryczności. Ta prócz poruszania maszyn pozwala przesyłać informację na wielkie odległości. Umożliwia to energiczną koordynację działań i szybszy postęp przebudowy naturalnego otoczenia w sztuczne.

Przechodzenie ku fazie drugiej rozpoczyna się od istotnych zmian technologicznych. Wyzwalanie w silnikach mocy, dorównujących skalą zjawiskom Natury, pozwala przezwyciężyć grawitację. Obok energii atomowej udostępnione zostaje konstruktorstwo cybernetyczne, którego istota polega na zastępowaniu mechanicznego budowania maszyn — programowaniem ich rozwoju i działania. Jest to jawny wynik naśladowania zjawisk życiowych, traktowanych już, chociaż w sposób nie zawsze uświadomiony, jako wzór raczej, jako wytyczna działania, aniżeli tylko jako obiekt bezradnego podziwu, wywołanego ich bezapelacyjną wyższością.

Budowanie układów coraz bardziej złożonych wypełnia stopniowo wielką lukę, ziejącą w wiedzy teoretycznej, która oddziela już względnie zupełną wiedzę o urządzeniach tak prostych, jak maszyna parowa czy elektryczna, od systemów tak skomplikowanych, jak ewolucja lub mózg. W pełni swego rozmachu rozwój ten zmierza ku „imitologii ogólnej”, ponieważ człowiek uczy się stwarzać wszystko, co istnieje, od atomów (antymateria syntetycznie produkowana w laboratoriach) aż po odpowiedniki własnego systemu nerwowego.

Zachodzący podówczas lawinowy wzrost informacji ujawnia człowiekowi, że manipulowanie nią stanowi odrębną gałąź technologiczną. Znaczną pomoc przynosi badanie metod, jakich w tym zakresie używa bioewolucja. W perspektywie zarysowuje się możliwość przezwyciężenia kryzysu informacyjnego, dzięki automatyzacji procesów poznawczych (np. w „hodowli informacji”). Może to pozwolić na perfekcję działań, opartą na zasadzie budowania dowolnie złożonych układów pewnych z elementów niepewnych. Znów dzięki wiedzy o analogicznej technologii zjawisk biologicznych. Realne staje się całkowite oddzielenie produkcji dóbr od ludzkiego nadzoru; równolegle wyłaniają się „techniki hedonistyczne” (fantomatyka i in.). Granicą tego ciągu jest jakaś inżynieria kosmogoniczna, czyli stwarzanie światów sztucznych, ale do tego stopnia wyobcowanych już i niezawisłych od Natury, że zastępujących jej świat pod każdym względem. Tym samym zaciera się różnica pomiędzy „sztucznym” a „naturalnym”, skoro „sztuczne” może „naturalne” prześcignąć w obrębie dowolnie wybranych parametrów, na jakich Konstruktorowi zależy.

Tak przedstawia się pierwsza faza ewolucji technologicznej człowieka. Nie jest ona kresem rozwoju. Historia cywilizacji, z jej antropoidalnym prologiem i możliwymi przedłużeniami, jakieśmy ukazali, stanowi trwający łącznie tysiąc do trzech tysięcy wieków proces poszerzania zakresu homeostazy, to jest zmieniania przez człowieka jego środowiska. Władza ta, penetrująca technologicznymi narzędziami mikro— i makrokosmos aż do najdalszej, zarysowanej granicy „pantokreatycznej”, nie tyka jednak samego organizmu ludzkiego. Człowiek pozostaje ostatnim reliktem Natury, ostatnim „autentycznym dziełem Przyrody” wewnątrz stwarzanego przez się świata. Stan taki nie może trwać dowolnie długo. Inwazja stworzonej przez człowieka technologii w jego ciało jest nie do uniknięcia.


Rekonstrukcja gatunku

 

Zjawisko to, stanowić mające treść drugiej fazy cywilizacyjnego rozwoju, można rozpatrywać i interpretować rozmaicie. Różne też, w pewnych granicach, mogą być jego rzeczywiste formy i kierunki. Ponieważ jakiś schemat jest nam dla dalszych rozważań niezbędny, posłużymy się najprostszym, pamiętając tylko o tym, że to jest schemat, a więc uproszczenie.

Można, po pierwsze, uznać organizm ludzki za dany i — w konstrukcji ogólnej — nienaruszalny. Wtedy zadania biotechnologii polegać będą na usuwaniu chorób i ich profilaktyce, a także na zastępowaniu wypadających funkcji bądź zdefektowanych narządów już to namiastkami biologicznymi (typu transplantacji, przeszczepu tkankowego), już to technicznymi (protetyka). Jest to ujęcie najbardziej tradycyjne i krótkowzroczne.

Po drugie, można — robiąc wszystko, co podane wyżej — działaniom talom przydać, jako nadrzędne, zastąpienie ewolucyjnych gradientów Natury celową, regulacyjną praktyką człowieka. Regulacja podobna może mieć z kolei rozmaite cele. Bądź to za najważniejsze uznaje się wyeliminowanie tych wszystkich szkodliwych skutków, jakie powoduje brak, w obrębie sztucznego otoczenia cywilizacyjnego, selekcji naturalnej, niszczącej gorzej przystosowanych. Bądź też ów program skromny zastępuje program — maximum: biologicznej autoewolucji, która ma ukształtować kolejne, coraz doskonalsze typy ludzkie (przez istotne zmiany takich dziedzicznych parametrów, jak np. mutabilności, zapadalności na nowotwory, jak kształty ciała, korelacje wewnątrz— i międzytkankowe, a wreszcie — przez zmiany parametrów długości życia, a może i rozmiarów i złożoności mózgu). Jednym słowem, byłby to, rozłożony w czasie może na wieki, może na tysiąclecia, plan stworzenia „następnego modelu homo sapiens”, nie nagłym skokiem,” ale drogą zmian powolnych i stopniowych, co wygładziłoby międzypokoleniowe różnice.

Po trzecie wreszcie, można cały problem potraktować w sposób daleko bardziej radykalny. Można mianowicie zarówno dane przez Naturę rozwiązanie konstrukcyjne zadania, „jaką ma być Istota Rozumna?”, jak i to rozwiązanie, do którego dałoby się dojść przejętymi od niej, autoewolucyjnymi środkami, uznać za niedostateczne. Zamiast ulepszać czy „łatać” model istniejący w zakresie takich lub innych parametrów, można ustalić ich nowe wartości arbitralnie. Zamiast względnie skromnej długowieczności biologicznej — zażądać prawie—nieśmiertelności. Zamiast wzmocnienia konstrukcji danej przez Naturę w takich granicach, na jakie w ogóle pozwoli użyty przez nią budulec — zażądać wytrzymałości najwyższej, jakiej potrafi dostarczyć istniejąca technologia. Jednym słowem, rekonstrukcję zastąpić całkowitym przekreśleniem rozwiązania istniejącego i zaprojektować zupełnie nowe.

To ostatnie wyjście z dylematu wydaje się nam dzisiaj tak zupełnie absurdalne, tak nie do przyjęcia, że warto posłuchać argumentów, jakie by mógł wypowiedzieć jego zwolennik.

Najpierw — powie on — droga rozwiązań „profilaktyczno–protetycznych” jest konieczna i nieuchronna, czego najlepszym dowodem, że właściwie ludzie już na nią wkroczyli. Istnieją już protezy, zamieniające czasowo serce, płuca, krtań, istnieją syntetyczne naczynia krwionośne, sztuczna krezka, syntetyczne kości, wyściółka jam opłucnowych, sztuczne powierzchnie stawowe z teflonu. Projektuje się protezy ręki, bezpośrednio uruchamiane bioprądami kikutów mięśniowych pasa barkowego. Myśli się o urządzeniu utrwalającym zapis bodźców nerwowych, uruchamiających kończyny podczas chodzenia; człowiek, sparaliżowany wskutek uszkodzenia rdzenia kręgowego będzie mógł chodzić, mając aparat, dowolnie przezeń nastawiany, który wysyła właściwe impulsy, „nagrane” u osobnika zdrowego, do nóg.

Zarazem rosną możliwości stosowania przeszczepów; po rogówce, elementach kostnych, po szpiku wytwarzającym krew, kolej na życiowo ważne narządy. Fachowcy twierdzą, że transplantacja płuca jest kwestią niedalekiej przyszłości*. Przezwyciężenie biochemicznej obrony organizmu przed obcymi gatunkowo białkami pozwoli na stosowanie przeszczepianych serc, żołądków, itp. O tym, czy będzie się stosowało transplantaty, czy też raczej organy namiastkowe z substancji abiologicznej, każdorazowo zadecyduje aktualny stan wiedzy i poziom technologii. Pewne organy będzie chyba łatwiej zastępować mechanicznymi, inne natomiast muszą się doczekać opracowania techniki skutecznych przeszczepów. Co jednak najistotniejsze, dalszy rozwój protetyki biologicznej i abiologicznej będzie dyktowany nie tylko potrzebami ustroju ludzkiego, ale równocześnie i potrzebami nowych technologii.

Wiemy już dziś dzięki badaniom uczonych amerykańskich, że siłę skurczów mięśniowych można znacznie spotęgować, wstawiając pomiędzy nerw a mięsień wzmacniacz elektronowy impulsów. Model aparatu zbiera pobudzenia nerwowe, adresowane do mięśni, ze skóry, wzmacnia je i doprowadza do właściwych efektorów. Niezależnie, uczeni rosyjscy zajmujący się bioniką, nauką o efektorach i receptorach żywych organizmów, skonstruowali urządzenie poważnie skracające czas reakcji człowieka. Czas ten jest zbyt długi przy sterach rakiet kosmicznych, a nawet naddźwiękowych samolotów. —Impulsy nerwowe biegną z prędkością setki metrów zaledwie na sekundę, a muszą od narządu zmysłowego (np. oka) dotrzeć do mózgu, stamtąd, nerwami, do mięśni (efektorów), co zajmuje kilka dziesiętnych sekundy. Otóż impulsy, wychodzące z mózgu i biegnące pniami nerwowymi, zbierają oni i bezpośrednio kierują do efektora mechanicznego. W ten sposób wystarczy, aby pilot zechciał poruszyć sterem, a ster się przesunie. Sytuacja, która powstanie po rzetelnym udoskonaleniu podobnych technik, będzie paradoksalna. Osobnik okaleczony tak czy inaczej wskutek nieszczęśliwego wypadku czy choroby, będzie po sprotezowaniu znacznie przewyższał normalnego osobnika. Trudno bowiem nie zaopatrzyć go w protezę najlepszą z istniejących, a istniejące działać będą szybciej, sprawniej i pewniej od organów naturalnych!

Co się tyczy proponowanej „autoewolucji”, ma się ona ograniczyć do takich przekształceń ustroju, jakie leżą jeszcze w granicach plastyczności biologicznej. Ograniczenie takie nie jest jednak konieczne. Organizm nie może wytwarzać programowaniem genotypowej informacji dziedzicznej diamentów ani stali, bo do tego niezbędne są wysokie temperatury i ciśnienia, jakich zrealizować w embriogeaezie niepodobna. Tymczasem np. już teraz można stwarzać protezy, osadzone na stałe w kościach szczęki, które, sporządzone w swych zębowych częściach z najtwardszych materiałów —jakich organizm nie wytworzy — są praktycznie niezniszczalne. Przecież najważniejsza jest perfekcja wykonania i działania organu, a nie jego geneza.

Stosując penicylinę nie troszczymy się o to, czy wyprodukowało ją laboratorium w retortach, czy też autentyczny grzybek na pożywce. Planując więc rekonstrukcję człowieka i ograniczając się do tych środków, jakich rozwój umożliwi informacyjny przekaz plazmy dziedzicznej, zupełnie niepotrzebnie rezygnujemy z zaopatrzenia ustroju w takie udoskonalone układy, w takie nowe funkcje, jakie byłyby wielce przydatne i użyteczne.

Odpowiadamy na to, że zwolennik przewrotu konstrukcyjnego nie zdaje sobie chyba sprawy z konsekwencji własnych postulatów. Przecież nie chodzi nam jedynie o wąsko rozumiane przywiązanie człowieka do takiego ciała, jakie posiada. Cielesnością, w kształtach i wyrazie, danymi nam przez Naturę, wypełniona jest cała kultura i sztuka wraz z najbardziej abstrakcyjnymi teoriami. Cielesność ukształtowała kanony wszystkich historycznych estetyk, wszystkie istniejące języki, a przez to i całość myślenia ludzkiego. Cielesny jest przecież nasz duch; nieprzypadkowo to słowo wywodzi się z oddychania. Wbrew pozorom, nie ma też wartości, które powstałyby bez udziału czynnika cielesnego. Jak najbardziej cielesna jest miłość, w jej najmniej fizjologicznym rozumieniu. Gdyby człowiek naprawdę miał sam siebie przekształcić pod naciskiem wytworzonych własnymi rękami technologii, gdyby miał za swego następcę uznać robota z doskonałym mózgiem krystalicznym, byłoby to największym jego szaleństwem. Oznaczałoby to ni mniej, ni więcej, jak tylko fakt zbiorowego samobójstwa rasy, przysłonięty pozorem jej kontynuacji w maszynach myślących, które stanowią część wytworzonej technologii: tak zatem człowiek, w ostatecznej konsekwencji, dopuściłby do tego, aby urzeczywistniona przezeń technologia wyparła go z miejsca, w którym istniał, z jego niszy ekologicznej, aby stała się ona niejako nowym syntetycznym gatunkiem, który usuwa z areny dziejów gatunek gorzej przystosowany.

Argumenty te nie przekonują naszego przeciwnika. Cielesność kultury ludzkiej doskonale znam — mówi — ale nie uważam, aby wszystko w niej było, jako bezcenne, godne wiekuistego utrwalenia. Wiecie przecież, jak fatalny wpływ na rozwój określonych pojęć, na powstawanie kanonów społecznych i religijnych, miały fakty tak, w gruncie rzeczy, przypadkowe, jak na przykład lokalizacja narządów rozrodczych. Oszczędność działania i obojętność na względy w naszym rozumieniu estetyczne spowodowała zbliżenie i częściowo zespolenie dróg wydalających produkty końcowe przemiany materii z drogami płciowymi. Sąsiedztwo to, biologicznie racjonalne, stanowiące zresztą nieunikniony skutek rozwiązania konstrukcyjnego, urzeczywistnionego jeszcze na etapie płazów i gadów, więc setki milionów lat temu, rzuciło w oczach ludzi, kiedy poczęli badać i obserwować własne funkcje organiczne, haniebny i grzeszny cień na akt płciowy. Nieczystość tego aktu narzucała się niejako automatycznie, skoro realizowany był narządami tak ściśle związanymi z funkcjami wydalniczymi. Organizm winien unikać końcowych produktów wydalania, bo to jest biologicznie ważne. Zarazem jednak winien dążyć do zespolenia płciowego, które jest niezbędne ewolucyjnie. Otóż, ześrodkowanie dwu diametralnie sprzecznych nakazów, o takim znaczeniu, musiało przyczynić się walnie do powstania mitów o grzechu pierworodnym, o naturalnej nieczystości życia płciowego i jego przejawów, i miotany między dziedzicznie zaprogramowaną repulsją i atrakcją, umysł wytwarzał już to cywilizacje oparte na pojęciu grzechu i winy, już to cywilizacje wstydu i kanalizowanej rytuałami rozpusty. Tyle po pierwsze. Po drugie, nie postuluję żadnej „robotyzacji” człowieka. Jeśli mówiłem o rozmaitych elektronowych i innych protezach, to jedynie aby odwołać się do takich przykładów konkretnych, jakie są dzisiaj dostępne. Przez robota pojmujemy mechanicznego bałwana, z grubsza człekokształtną maszynę, obdarzoną inteligencją ludzką. Jest on więc prymitywną karykaturą człowieka, a nie jego następcą. Rekonstrukcja ustroju nie ma oznaczać rezygnacji z żadnych cech wartościowych, a jedynie eliminację cech właśnie u człowieka niedoskonałych i prymitywnych. Ewolucja działała, kształtując nasz gatunek, z wyjątkową szybkością. Tendencja jej właściwa, zachowywania konstrukcyjnych rozwiązań gatunku wyjściowego, dopóki to tylko jest możliwe, obciążyła nasze organizmy szeregiem mankamentów, które nie znane są naszym czworonożnym przodkom. Miednica kostna nie podtrzymuje u nich ciężaru trzewi. Ponieważ u człowieka musi go unieść, powstały mięśniowe przepony, utrudniające poważnie akt porodu. Pionowa postawa wpłynęła również szkodliwie na hemodynamikę. Zwierzęta nie znają żylaków, jednej z plag ludzkiego ciała. Gwałtowny wzrost mózgoczaszki doprowadził do takiego skręcenia pod prostym kątem jamy gardzielowej (tam, gdzie ona przechodzi w przełyk), że w miejscu tym powstają zawirowania powietrza, osadzające na ścianach gardła wyjątkowe ilości aerozoli i drobnoustrojów, przez co gardziel stała się bramą wypadową wielkiej ilości zakaźnych chorób. Ewolucja usiłowała przeciwdziałać temu, otaczając krytyczne miejsce pierścieniem tkanki limfatycznej, ale ta improwizacja nie tylko nie dała rezultatów, ale stanowi źródło nowych dolegliwości, ponieważ te skupiska tkanki stały się siedzibami zakażeń ogniskowych[xiv]. Nie twierdzę, że przodkowie zwierzęcy człowieka przedstawiali konstrukcyjne rozwiązania idealne; z ewolucyjnego punktu widzenia, „idealny” jest każdy gatunek, jeśli jest zdolny do trwania. Twierdzę jedynie, że nawet nasza niezmiernie uboga i niezupełna wiedza pozwala wyobrazić sobie takie rozwiązania, na razie nieurzeczywistnialne, które oswobodziłyby ludzi od niezliczonych cierpień. Protezy wszelkiego rodzaju wydają się nam czymś gorszym od kończyn i narządów naturalnych, ponieważ dotąd rzeczywiście ustępują takowym sprawnością. Oczywiście rozumiem, że tam, gdzie technologia tego nie wymaga, można uczynić zadość kryteriom przyjętej estetyki. Powierzchnia zewnętrzna ciała nie wydaje się nam piękna, jeśli jest pokryta kosmatym futrem, tak samo jak gdyby miała być ze stalowej blachy. Ale może przecież niczym, ani dla oka, ani dla innych zmysłów, nie różnić się od skóry. Co innego z gruczołami potowymi; wiadomo, jak ludzie cywilizowani dbają o zniweczenia skutków ich działania, przysparzającego niektórym w higienie osobistej mnóstwo kłopotu. Mniejsza zresztą o takie szczegóły. Nie mówimy przecież o tym, co może być za dwadzieścia albo za sto lat, lecz o tym, co jest jeszcze do pomyślenia. Nie wierzę w żadne rozwiązania ostateczne. Bardzo prawdopodobne, że „nadczłowiek” po pewnym czasie uzna się z kolei za twór niedoskonały, bo nowe technologie umożliwią mu to, co nam wydaje się fantazją po wieczność nierealizowalną (np. „przesiadanie się z osobowości w osobowość”). Dzisiaj przyjęte jest, że można stworzyć symfonię, rzeźbę lub obraz świadomym wysiłkiem umysłowym. Natomiast myśl o „skomponowaniu” sobie potomka, o jakiejś orkiestracji tych cech duchowych i fizycznych, jakie byśmy pragnęli w nim ujrzeć, taka myśl jest przebrzydłą herezją. Ale kiedyś za herezję poczytywano chęć latania, pragnienie studiowania ciała ludzkiego, budowanie maszyn, dociekanie początków życia na ziemi, a czasy, w których powszechnie tak myślano, dzielą od nas ledwo stulecia. Jeśli mamy okazać się intelektualnymi tchórzami, oczywiście możemy przemilczeć prawdopodobieństwo przyszłego rozwoju. Ale w takim razie przynajmniej to, że zachowujemy się jak tchórze, trzeba wyraźnie powiedzieć. Człowiek nie może zmieniać świata, nie zmieniając samego siebie. Można stawiać pierwsze kroki na jakiejś drodze i udawać, że nie wie się, dokąd ona prowadzi. Ale to nie jest najlepsza ze wszystkich możliwych strategii.

Ta wypowiedź entuzjasty rekonstrukcji gatunku zasługuje, jeśli nie na akceptację, to przynajmniej na rozpatrzenie. Wszelki sprzeciw zasadniczy pochodzić może z dwóch różnych postaw. Pierwsza jest emocjonalna raczej aniżeli racjonalna, w tym przynajmniej sensie, że odmawia zgody na rewolucję ludzkiego organizmu, nie przyjmując do wiadomości argumentów „biotechnologicznych”. Uważa ona konstytucję człowieka taką, jaka istnieje dziś, za nienaruszalną, nawet jeśli przyznaje, że cechują ją liczne ułomności. Ale i te ułomności, zarówno fizyczne, jak i duchowe, stały się w toku rozwoju historycznego wartościami. Bez względu na to, jaki byłby rezultat autoewolucyjnego działania, oznacza on, że człowiek ma zniknąć z powierzchni Ziemi; obraz jego w oczach „następcy” byłby martwą nazwą zoologiczną, jaką jest dla nas Australopithecus czy Neandertalczyk. Dla istoty prawie—nieśmiertelnej, której własne ciało podlega tak samo, jak otoczenie, nie istniałaby większość odwiecznych problemów ludzkich; przewrót więc biotechnologiczny jest nie tylko zgładzeniem gatunku Homo Sapiens, ale i zabójstwem jego duchowej puścizny. Jeśli nie jest fantasmagorią, perspektywa taka wydaje się tylko szyderstwem: zamiast rozwiązać swe problemy, zamiast znaleźć odpowiedzi na dręczące od wieków pytania, człowiek ma schronić się przed nimi w materialnej doskonałości; cóż to za haniebna ucieczka, co za porzucenie odpowiedzialności, kiedy przy pomocy technologii homo przepoczwarzą się w owego deus ex machina! Druga postawa nie wyklucza pierwszej: prawdopodobnie dzieli jej argumentację i uczucia, ale czyni to milcząc. Gdy zabiera głos, stawia pytania. Jakie konkretne usprawnienia i rekonstrukcje proponuje „autoewolucjonista”? Odmawia udzielenia wyjaśnień szczegółowych, jako przedwczesnych? A skąd wie, czy niedościgniona dzisiaj doskonałość biologicznych rozwiązań zostanie kiedykolwiek prześcignięta? Na jakich faktach opiera to swoje przypuszczenie? Czy nie jest raczej prawdopodobne, że ewolucja osiągnęła pułap materialnych możliwości? Że złożoność, jaką reprezentuje organizm ludzki, stanowi wielkość graniczną? Oczywiście, wiadomo i dzisiaj, że w zakresie oddzielnie rozpatrywanych parametrów, takich jak szybkość przekazu informacyjnego, jak niezawodność lokalnego działania, jak stałość funkcji dzięki powielaniu jej realizatorów i kontrolerów, układy maszynowe mogą przewyższać człowieka, ale czymś innym jest spotęgowanie, wziętych z osobna, mocy, wydajności, szybkości czy trwałości, a czymś innym zupełnie — integracja tych wszystkich rozwiązań optymalnych w jednym systemie.

Autoewolucjonista gotów jest podnieść rzuconą rękawicę — i argumentom przeciwstawić kontrargumenty. Ale nim przejdzie do dyskusji z poglądami przeciwnika—racjonalisty, zdradza, że w gruncie rzeczy postawa pierwsza nie jest mu obca. W głębi ducha bowiem odczuwa taki sam przeraźliwy sprzeciw w obliczu planów rekonstrukcji gatunku, jak ten, kto ją kategorycznie potępił. Uważa jednak tę przyszłą przemianę za nieuchronną, i właśnie dlatego szuka wszystkich racji, jakie by za nią przemawiały, tak aby działanie koniecznie pokryło się z rezultatem wyboru. Nie jest apriorycznym oportunistą: nie uważa, że to, co konieczne, musi tym samym być dobre. Ale ma nadzieję, że tak przynajmniej może być.


Konstrukcja życia

 

Aby zaprojektować dynamomaszynę, wcale nie trzeba znać historii jej wynalezienia. Młody inżynier może się bez niej doskonale obejść. Okoliczności historyczne, jakie kształtowały pierwsze modele prądnic, są, a przynajmniej mogą mu być całkiem obojętne. Zresztą dynamomaszyna jest właściwie, jako urządzenie do przekształcania energii kinetycznej bądź chemicznej w elektryczną, raczej przestarzała. Kiedy, niedługo już, elektryczność będzie się wytwarzać bez kłopotliwej okólności przekształceń kolejnych (energia chemiczna węgla — w cieplną, cieplna — w kinetyczną, kinetyczna dopiero —w elektryczną), produkując ją np. w stosie atomowym bezpośrednio, tylko historyk techniki będzie znał konstrukcję dawnych generatorów prądowych. Taka niezawisłość od historii rozwoju jest biologii obca. Mówimy to, ponieważ przystępujemy do krytyki ewolucyjnych rozwiązań.

Otóż może to być tylko krytyka konstruktorska rezultatów, abstrahująca od wszystkich poprzedzających je faz działania. Co prawda ludzie skłonni są raczej widzieć doskonałość biologicznych rozwiązań, ale to dlatego, że ich własne umiejętności pozostają daleko w tyle za biologicznymi. Dla dziecka każdy czyn dorosłego jest czymś potężnym. Trzeba dorosnąć, aby w poprzedniej perfekcji dojrzeć jej słabość. Ale to nie wszystko. Właśnie konstruktorska lojalność nakazuje ocenę realizacji biologicznych, nie ograniczoną do paszkwilu na konstruktora, który oprócz życia dał nam śmierć, a cierpień więcej od rozkoszy. Ocena bowiem winna ująć go takiego, jakim był. A był, przede wszystkim, bardzo daleko od wszechmocy. W chwili startu ewolucja była osadzonym na pustej planecie Robinsonem, pozbawionym nie tylko narzędzi i pomocy, nie tylko wiedzy i zdolności przewidywania, ale i samego siebie, to znaczy planującego umysłu, ponieważ prócz gorącego oceanu, burzowych wyładowań i atmosfery beztlenowej z palącym słońcem nie było nikogo. Mówiąc zatem, że ewolucja rozpoczęła tak a tak, że robiła to a to, personalizujemy pozbawione nie to, że osobowości, ale nawet celu pierwsze pełzania procesu samoorganizacji.

Był on preludium wielkiego dzieła, nie znającym ani owego dzieła, ani nawet jego najbliższych taktów. Chaosy molekularne dysponowały, poza właściwymi sobie potencjami materialnymi, jedynym tylko ogromnym wymiarem swobody: czasem.

Niespełna sto lat temu oceniano wiek Ziemi na 40 milionów lat. Wiemy, że istnieje ona co najmniej cztery ich miliardy. Ja sam uczyłem się, że życie istnieje na niej od kilkuset milionów lat. Znane teraz ostatki organicznych substancji, należące ongiś do żywych istot, mają dwa miliardy siedemset milionów lat. Jeśli będziemy liczyć od dnia dzisiejszego wstecz, to 90 procent całego czasu ewolucji upłynęło, nim powstały pierwsze kręgowce. Stało się to z górą 350 milionów lat temu. Po dalszych 150 milionach lat potomkowie owych ryb kostnoszkieletowych wyszli na ląd, opanowali powietrze, a po ssakach, liczących sobie 50 milionów lat, przed milionem powstał człowiek. Łatwo żonglować miliardami. Bardzo trudno uzmysłowić sobie konstruktorskie znaczenie .takich liczb, takich otchłani czasu. Jak widać, przyspieszenie następujących po sobie, kolejnych rozwiązań, cechuje nie tylko techniczną ewolucję. Nie tylko kumulacja wiedzy teoretycznej, gromadzonej społecznie, ale i genetycznej utrwalanej w plazmie dziedzicznej, przyspiesza postęp.

Ponad dwa i pół miliarda lat życie rozwijało się wyłącznie w wodzie oceanów. Powietrze i lądy były w tych epokach martwe. Znamy około 500 kopalnych gatunków z epoki kambryjskiej (ponad pół miliarda lat temu). Z przedkambryjskiej jednak udało się, mimo bez mała stuletnich usilnych poszukiwań, odkryć zaledwie pojedyncze. Ta zadziwiająca luka nie jest do dziś wytłumaczona. Wygląda na to, że ilość żyjących form wzrosła poważnie w czasie stosunkowo krótkim (rzędu milionów lat). Formy przedkambryjskie to prawie wyłącznie rośliny (algi), zwierzęcych zaś niemal brak. Można je policzyć na palcach ręki. W kambrze jednak pojawiają się masowo. Niektórzy uczeni skłonni są do przyjęcia hipotezy jakiejś radykalnej, globalnej zmiany warunków ziemskich. Może był to skok natężenia promieni kosmicznych, w myśl wspomnianej hipotezy Szkłowskiego. Jakkolwiek miały się rzeczy, nieznany czynnik musiał działać w skali całej planety, ponieważ luka przedkambryjska odnosi się do całokształtu danych paleontologicznych. Z drugiej strony, nie było tak, ażeby wody oceaniczne do początków dolnego kambru zawierały, z nieznanych przyczyn, stosunkowo niewielką ilość żywych ustrojów w ogóle i by pojawienie się w kambrze licznych nowych gatunków poprzedził gwałtowny wzrost liczebności form poprzednich. Organizmów żywych było już i w archeozoiku wiele: z danych geologicznych wiemy bowiem, że już na długo przed kambrem stosunek tlenu do azotu w atmosferze był podobny do dzisiejszego. Że zaś tlen powietrza jest produktem działalności żywych ustrojów, wynika z tego, iż ogólna ich masa musiała być niezbyt mniejsza od współczesnej. Brak form kopalnych spowodowała, przynajmniej częściowo, ich nietrwałość: przedkambryjskie nie posiadały szkieletów ani skorup mineralnych. W jaki sposób, i dlaczego doszło do takich „rekonstrukcji” w kambrze, nie wiemy. Być może, nie da się tego problemu rozstrzygnąć nigdy. Ale możliwe jest również, że dokładniejsze poznanie kinetyki biochemicznej wprowadzi nas na trop tej zagadki, jeśliby się udało, w oparciu o strukturę homeostazy białkowej współczesną, dość tego, jakie jej formy prymitywniejsze mogły ją, z największym prawdopodobieństwem, poprzedzać. O ile, oczywiście, rozwiązanie zagadki sprowadza się do czynników wewnątrzustrojowych raczej aniżeli do jakiejś jednorazowej sekwencji zmian kosmicznych, geologicznych bądź klimatycznych na przełomie kambru.

Mówimy o tym dlatego, ponieważ „przełom kambryjski” mógł zostać wywołany jakimś „biochemicznym wynalazkiem” ewolucji. Jeśli tak nawet było, nie zmienił on przyjętej wstępnie, fundamentalnej zasady budownictwa, opartej na komórkowych cegiełkach.

Ewolucję życia poprzedziła, bez wątpienia, ewolucja reakcji chemicznych; prakomórki nie musiały zatem żywić się martwą materią, jako źródłem ładu. Nie mogłyby zresztą od razu rozwiązać tego, jednego z najtrudniejszych zadań, jakim jest synteza ciał organicznych z prostych związków, w rodzaju dwutlenku węgla, dzięki energii fotonów słonecznych. Ten majstersztyk syntezy zrealizowały dopiero rośliny, posiadłszy sztukę wytwarzania chlorofilu i całej aparatury enzymów, łowiących kwanty promieniste. Szczęśliwie, na początku praorganizmy dysponowały zapewne substancjami organicznymi, które mogły łatwo przyswajać, a które stanowiły pozostałość owego nadmiaru, jaki je zrodził. Powstał on w toku procesów takich, jak np. wyładowania elektryczne w atmosferze amoniaku, azotu i wodoru.

Powróćmy jednak do podstawowego problemu dynamicznego elementarnej komórki. Musi ona kontrolować istotne parametry swych przemian tak, aby z zakresu fluktuacji jeszcze odwracalnych nie wyniknęły się poza granicę odwracalności — w rozkład, więc w śmierć. W płynnym ośrodku koloidowym kontrola taka musi zachodzić z ograniczoną szybkością. Otóż fluktuacje wywołane statystyczną naturą ruchów molekularnych nie mogą zachodzić szybciej, aniżeli odbywa się ogólnokomórkowe krążenie informacji. W przeciwnym razie centralny regulator, jądro, utraciłby władzę nad toczącymi się lokalnie procesami: informacja o potrzebie interwencji przybywałaby wówczas z reguły zbyt późno. Oznaczałoby to początek zmian już nieodwracalnych. Tak więc rozmiary komórki dyktowane są, w ostatniej instancji, parametrami szybkości przekazu informacyjnego z dowolnego miejsca komórki do regulatorów oraz szybkości toczących się lokalnie procesów chemicznych. We wczesnych swych fazach ewolucja produkowała komórki nieraz znacznie różniące się rozmiarami. Niemożliwa jest jednak komórka wielkości dyni, czy wręcz słonia. Wynika to z nazwanych wyżej ograniczeń.

Należy zauważyć, że dla człowieka–technologa komórka jest urządzeniem co najmniej niezwykłym, które może podziwiać raczej, aniżeli rozumieć. Organizm tak „prosty”, jak pałeczka (bakteria) okrężnicy, dzieli się co 20 minut. W tym czasie bakteria produkuje białka w tempie 1000 molekuł na sekundę. Ponieważ pojedyncza cząstka białka składa się z około 1000 aminokwasów, z których każdy musi być odpowiednio „rozmieszczony” w przestrzeni i „dopasowany” do powstającej konfiguracji molekularnej, jest to nie byle jakie zadanie. Najbardziej przezorna ocena szacunkowa wskazuje, że bakteria wytwarza co najmniej 1000 bitów informacji na sekundę. Liczba ta przemówi należycie, jeśli zestawimy ją z ilością bitów informacji, jakiej może podołać umysł ludzki. Wynosi ona około 25 bitów na sekundę. Drukowana strona tekstu o małej nadmiarowości informacyjnej zawiera około 10 000 bitów.. Jak z tego widać, informacyjny potencjał komórki największy jest w jej procesach wewnętrznych, tj. służących kontynuacji jej istnienia dynamicznego. Komórka jest „fabryką”, w której „surowiec” znajduje się ze wszystkich stron, obok, powyżej i poniżej „maszyn produkcyjnych”; „maszynami” tymi są organelle komórkowe, rybosomy, mitochondria itp. mikrostruktury, stojące w połowie skali wielkości między komórką a cząstką chemiczną. Składają się one z uporządkowanych i skomplikowanych struktur chemicznych, z „przytwierdzonymi” do nich „narzędziami obróbki”, typu enzymów; wygląda na to, że „surowiec” podają „maszynom” i ich „narzędziom” nie jakieś specjalnie działające, kierunkowe siły, które by przyciągały surowiec potrzebny, a odtrącały zbyteczny lub nie nadający się do „obróbki”, lecz po prostu zwyczajne ruchy cieplne molekuł. Tak więc „maszyny” są niejako bombardowane strumieniami tańczących w zawieszeniu molekularnym cząstek, i już rzeczą ich specyficzności, wybiórczości jest wychwytywanie elementów „właściwych” z tego pozornego chaosu. Ponieważ wszystkie te bez wyjątku procesy są natury statystycznej, ogólne rozważania termodynamiczne skłaniają do wniosku, że w toku takich przemian winno dochodzić do omyłek, tj. do błędów (np. umieszczania „fałszywych” aminokwasów w miejscach powstającej spirali molekularnej białka). Błędy takie muszą być jednak rzadkością, przynajmniej w normie, ponieważ niepodobna odkryć „fałszywie” syntetyzowanych przez komórkę białek. W ostatnich latach przeprowadzono szereg badań kinetyki chemicznych reakcji życia, nie jako powtarzających się sztywnie procesów cyklicznych, ale jako pewnej plastycznej całości, która poza tym, że Jest podtrzymywana w swym nieustającym biegu, może być szybko i sprawnie kierowana dla osiągnięcia aktualnie doniosłych celów. Po opracowaniu „wyjściowych parametrów” komórki modelowej, wielka maszyna liczbowa przez 30 godzin obliczała najkorzystniejszy zestrój szybkości reakcji oraz poszczególnych ich ogniw w komórce. Oto, do czego prowadzi niezbędna dziś w nauce formalizacja zadania: komórka bowiem bakterii rozwiązuje te same problemy w ułamkach sekundy i, rozumie się, bez mózgu czy to elektrycznego, czy neuronowego.

Jednorodność komórki jest zarazem rzeczywista i pozorna. Rzeczywista jest w tym sensie, że plazma jej stanowi koloidowy roztwór wielkomolekularnych proteidów, białek i lipidów, więc „chaos” cząstek zanurzonych w ośrodku płynnym. Pozorna, ponieważ przezroczystość komórki urąga próbom dostrzeżenia jej mikrostruktur dynamicznych, a ich ścinanie i utrwalanie barwikami wywołuje zmiany, niszczące pierwotną organizację. Komórka, jak się o tym przekonano dzięki mozolnym i kłopotliwym badaniom, nie jest nawet taką metaforyczną „fabryką”, jaką sugeruje powyżej przytoczony obraz. Procesy dyfuzji i osmozy między jądrem a protoplazmą nie zachodzą tylko dzięki mechanizmom fizycznym, zgodnie z gradientem panujących różnic ciśnienia osmotycznego, ale gradienty te znajdują się pod kontrolą, przede wszystkim jądra; w komórce można rozróżnić mikroprądy, mikrostrumienie cząsteczkowe, niejako zminiaturyzowane odpowiedniki krwiobiegu, organelle zaś są węzłowymi punktami owych prądów, stanowiąc zarazem „uniwersalne automaty” wyposażone w zestawy odpowiednio przestrzennie poumieszczanych enzymów, jak i akumulatory energii, rzucanej we właściwych momentach i we właściwym kierunku.

Otóż można sobie jeszcze jakoś wyobrazić fabrykę złożoną z maszyn i surowców pływających wokół siebie, ale trudno pojąć, jak by mogła zostać skonstruowana fabryka, która nieustannie zmieniałaby swój kształt, wzajemne sprzężenie agregatów produkcyjnych, ich charakterystykę wytwórczą itd. Komórka jest systemem wodnistych koloidów, z wieloma potokami wymuszonej cyrkulacji, ze strukturą nie tylko ruchomą czynnościowo, ale i zmieniającą się bezładnie (w takim sensie, że można nawet przemieszać protoplazmę — byle nie uszkodziło to pewnych podstawowych struktur, będzie ona nadal działała, więc żyła), wstrząsaną ciągle ruchami brownowskimi, z nieustającymi odchyleniami od stabilizacji, i określone sterowanie całokształtem procesów możliwe jest w niej tylko statystycznie, w oparciu o probabilistyczną taktykę natychmiastowych decyzji interwencyjno–regulacyjnych. Procesy utleniania zachodzą w komórce pod postacią przenoszenia elektronów przez „pseudokrystaliczny półprzewodnik płynny”, wykazując określone rytmy, wywołane właśnie ciągłą interwencją regulacyjną — to samo dotyczy też innych procesów, jak np. cyklów energetycznych z akumulowaniem energii w kwasie adenozynotrójfosforowym itp.

W gruncie rzeczy wszystkie organizmy wyższe są tylko kombinacjami tego elementarnego budulca, „wyciąganiem wniosków i konsekwencji” z wyników danych, jakie tkwią w każdej komórce, poczynając od bakterialnych. Żaden też organizm tkankowy nie posiada uniwersalizmu komórki, jakkolwiek w pewnym sensie zastępuje go plastyczność ośrodkowego układu nerwowego. Uniwersalizm ów przejawia byle ameba; jest bez wątpienia nadzwyczaj wygodne mieć nogę, która w razie potrzeby staje się czułkiem, taką, którą, utraconą, natychmiast zastąpi inna noga; mam na myślipseudopodia — nibynóżki pełzaków. Równie korzystne bywa móc w „dowolnym miejscu otworzyć gębę”, i to też potrafi ameba, oblewająca i pochłaniająca protoplazmą cząstki pokarmu. Tu jednak po raz pierwszy daje o sobie znać system wstępnie przyjętych założeń. Komórki, łącząc się w tkanki, mogą stworzyć organizm makroskopowy, posiadający szkielet, mięśnie, naczynia i nerwy. Ale nawet najdoskonalsza regeneracja nie jest już tak wszechstronna, jak utracony, wraz z jednokomórkowością, uniwersalizm funkcji. Budulec stawia granicę wytwarzaniu „organów odwracalnych”. Protoplazmą potrafi po trosze i kurczyć się, i przewodzić bodźce, i trawić wchłonięty pokarm, ale nie kurczy się ze sprawnością wyspecjalizowanej komórki mięśniowej, nie przewodzi bodźców jak włókna nerwowe i nie może ani zgryźć pokarmu, ani skutecznie go ścigać, zwłaszcza jeśli jest energiczny i ucieka. Specjalizacja jest wprawdzie jednokierunkowym spotęgowaniem poszczególnych cech komórkowej wszechstronności, ale jest też zarazem rezygnacją z owej wszechstronności, której konsekwencję, nie najmniej chyba ważną, stanowi śmierć osobnicza.

Krytykę „komórkowego założenia” można podjąć dwojako. Po pierwsze, ze stanowiska genetycznego: przyjmujemy wtedy środowisko płynne (wodne) ciał typu kwasów aminowych i innych związków organicznych, rezultatów chemicznej działalności oceanu i atmosfery, jako dane. Tylko tam bowiem się owe ciała gromadziły, tylko tam mogły ze sobą reagować, aby dojść do początków samoorganizacji w warunkach, jakie panowały na Ziemi, liczącej „ledwo” półtora miliarda lat. Uwzględniając takie wyjściowe warunki, można by pytać o realizację „prototypu” odmiennego od rozwiązań ewolucyjnych. Po drugie, można, abstrahując od konieczności owej sytuacji, zastanowić się, jakie byłoby rozwiązanie optymalne, a niezawisłe od tamtych ograniczeń. Innymi słowy, czy perspektywy rozwojowe organizacji nie przedstawiałyby się lepiej, gdyby jakiś Konstruktor zainicjował ją w środowisku stałym bądź gazowym.

Otóż mowy nawet nie ma o tym, abyśmy potrafili rywalizować dzisiaj, choćby teoretyzującym tylko przypuszczeniem, z koloidową wersją rozwiązania homeostazy, jaką wyprodukowała Ewolucja. Nie znaczy to, aby naprawdę było nieprześcignione. Któż może wiedzieć, czy nieobecność pewnych atomów, pewnych pierwiastków w surowcu, w owym budulcu prakomórek, jakim mogła ewolucja dysponować, nie zamknęła jej, na samym wstępie, drogi ku odmiennym, być może energetycznie wydajniejszym, dynamicznie bardziej jeszcze trwałym stanom i typom homeostazy? Ewolucja dysponowała tym, czym właśnie dysponowała, z materiałów swych uczyniła użytek, prawdopodobnie, najdoskonalszy z możliwych. Ponieważ jednak stoimy na stanowisku wszechobecności procesów samoorganizacyjnych w Kosmosie i przez to wcale nie uważamy, jakoby ich wszczęcie było możliwe tylko w wypadkach wyjątkowych, nadzwyczajnego i szczególnie korzystnego zbiegu okoliczności, dopuszczamy możliwość wynikania — w obrębie faz płynnych — innych typów samoorganizacji od białkowego, a może i od koloidowego, przy czym warianty te mogą być zarówno „gorsze”, jak i „lepsze” od ziemskiego.

Ale cóż to znaczy właściwie „gorsze” lub „lepsze”? Czy nie próbujemy pod tymi pojęciami przemycić jakiegoś platonizmu, jakichś kryteriów wartościowania zupełnie dowolnego? Kryterium nasze stanowi postęp, albo raczej możliwość postępu. Rozumiemy przez nią wprowadzanie na scenę materialną takich homeostatycznych rozwiązań, które nie tylko mogą trwać na przekór zakłóceniom wewnętrznym i zewnętrznym, ale mogą się też rozwijać, czyli powiększać zakres owej homeostazy. Są to układy doskonałe nie tylko pod kątem rozpatrywanej adaptacji do stanu aktualnego otoczenia, ale doskonałe też jako układy zdolne do zmian, przy czym zmiany owe winny zarówno odpowiadać wymaganiom środowiska, jak i umożliwiać dalsze, następne przekształcenia, tak aby nigdy nie doszło do zabarykadowania owej drogi kolejnych rozwiązań egzystencjalnych, do uwięźnięcia w ślepej uliczce rozwoju.

Tak oceniana, według swych rezultatów, ewolucja ziemska zasługuje zarazem na ocenę pozytywną i negatywną. Na negatywną, ponieważ — jak będzie o tym mowa — wyborem zarówno wstępnym (elementu budowlanego), jak i późniejszymi metodami działania kształtującego — odjęła swym produktom końcowym i najwyższym, więc nam właśnie, szansę płynnego kontynuowania dzieła postępu na płaszczyźnie biologicznej. Zarówno względy natury biotechnologicznej, jak i moralnej, uniemożliwiają nam proste kontynuowanie metod ewolucji: biotechnologiczne, ponieważ jesteśmy, jako określone rozwiązanie konstrukcyjne, nazbyt zdeterminowani przez siły sprawcze Natury; moralne, ponieważ odrzucamy zarówno metodę ślepych prób, jak i ślepej selekcji. Zarazem jednak można oceniać rozwiązanie dane przez ewolucję pozytywnie, skoro mimo ograniczeń biologicznych posiadamy, przyszłą chociażby, swobodę działania, dzięki ewolucji społecznej nauki.

Wydaje się wcale prawdopodobne, że „wariant ziemski” nie jest ani najgorszym, ani najlepszym z możliwych — według ustalonych powyżej kryteriów. Rozważania natury statystycznej nie są właściwie dopuszczalne w obrębie systemu słonecznego, ponieważ liczy on kilka zaledwie planet; niemniej, gdyby oprzeć się na tak skąpym materiale porównawczym, nasuwa się konkluzja, że homeostaza komórkowo—białkowa jest czymś, mimo wszystko, od przeciętnej lepszym — skoro, przy jednakim czasie istnienia, inne planety układowe nie wytworzyły form rozumnych. Ale to jest, jak się zastrzegłem, wnioskowanie bardzo ryzykowne, ponieważ różne mogą być skale czasowe i różne tempa przemian: planety metanowo—amoniakalne należeć mogłyby do odmiennej sekwencji ewolucyjnej, takiej, w której naszym wiekom odpowiadają milionolecia. Dlatego zakażemy sobie w tym miejscu dalszej spekulacji na ów temat.

Od homeostatów „płynnych” przechodzimy do stałych i gazowych. Pytamy o perspektywy rozwojowe organizacji, gdyby jakiś Konstruktor zainicjował ją w gazowych bądź stałych skupieniach materii.

Sprawa ta nie ma znaczenia akademickiego, ale bardzo realne, ponieważ odpowiedź na postawione pytanie może się odnosić zarówno do ewentualnych działań inżynieryjnych, jak i do prawdopodobieństwa wyniknięcia na niepodobnych do Ziemi ciałach kosmicznych innych, nie koloidowych, lecz „stałych” bądź „gazowych procesów ewolucyjnych”. Jak wiemy, szybkość zachodzących reakcji ma tu znaczenie pierwszorzędne. Oczywiście nie wyłączne, ponieważ przebiegi ich muszą być utrzymywane w ryzach, muszą być ściśle kontrolowane i powtarzalne. Stworzenie procesów kołowych oznacza wyniknięcie najwcześniejszych, pierwszych automatyzmów na molekularnym poziomie, opartych na sprzężeniu zwrotnym, które wyswobadza częściowo centralny regulator od konieczności bezustannego czuwania nad wszystkim, co dzieje się w podległym mu obszarze. A zatem — gazy. Reakcje w nich mogą zachodzić szybciej niż w środowisku wodnym, ale bardzo istotnymi czynnikami są tu temperatura i ciśnienie. Ewolucja posłużyła się na Ziemi technologią „zimną”, to jest opartą na katalizowaniu reakcji celem ich wszczęcia i przyspieszenia, a nie na stosowaniu wysokich temperatur. Ta metoda okólna była jedyną możliwą. Bo wprawdzie złożoność systemu, który wytwarza wysokie ciśnienie i temperatury, może być mniejsza od złożoności systemu katalitycznego, ale przecież ewolucja nie mogła stworzyć takiego systemu z niczego. W tym wypadku była „Robinsonem—chemikiem”. W tej sytuacji decyduje nie bilans informacyjny „absolutny”, to jest fakt, że mniej trzeba informacji dla budowy odpowiednich pomp, dla sprzężenia pewnych reakcji (np. zogniskowania promieni słonecznych), aby stworzyć warunki reagowania ciał, lecz ta informacja jest najlepsza, którą się da aktualnie wykorzystać i uruchomić. Ziemia nie przedstawiała podobnych możliwości w obrębie ciał stałych i atmosfery. Czy mógłby jednak stan przychylny powstać w innych okolicznościach? Odpowiedzieć na to nie umiemy. Można tylko snuć rozmaite przypuszczenia. Zapewne, z ciał stałych sami umiemy już budować homeostaty, choć na razie prymitywne (jak maszyny elektronowe). Ale te rozwiązania, obarczone szeregiem podstawowych niedostatków, można uznać tylko za wstęp do właściwej konstrukcji.

Po pierwsze, budowane przez nas modele są to „makrohomeostaty”, to jest układy, których struktura molekularna nie stoi w bezpośrednim związku z wykonywanymi funkcjami. Związek ten oznacza nie samą tylko przydatność do ich pełnienia, na pewno konieczną i w maszynie elektronowej, w której przewody muszą posiadać właściwą przewodliwość, tranzystory czy neuromimy — nakazaną charakterystykę działania itp. Oznacza on, że układ złożony, będąc zdanym na bardzo wielką ilość elementów, nad których stanem bezustannie czuwać nie może, winien być zbudowany według zasady „efektów pewnych przy użyciu części niepewnych”. Tak więc części te muszą być obdarzone autonomią samonaprawczą oraz kompensacyjną uszkodzeń zewnątrz— bądź wewnątrzpochodnych. Maszyny dotąd konstruowane właściwości tej nie posiadają (chociaż nowe, planowane, będą ją miały przynajmniej częściowo).

Po drugie, ów stan rzeczy ma swoje konsekwencje. Maszyna cyfrowa może wymagać chłodzenia pewnych części (np. lamp), więc użycia pompy dla podtrzymania cyrkulacji płynu chłodzącego. Pompa ta jednak nie jest sama homeostatem. Jest ona dzięki temu co prawda o wiele prostsza w budowle od homeostatycznej, ale też w wypadku jej uszkodzenia cała maszyna prawdopodobnie rychło stanie. Natomiast pompa homeostatu organicznego, np. serce, choć przeznaczona do działań czysto mechanicznych (przetłaczanie krwi), stanowi układ homeostatyczny wielopoziomowy. Jest ona, po pierwsze, częścią homeostatu nadrzędnego (serce plus naczynia plus regulacja nerwowa), po drugie, układem o autonomii lokalnej (autonomia regulacji skurczów serca, wbudowana w jego własne węzły nerwowe), po trzecie, samo serce składa się z wielu milionów mikrohomeostatów, którymi są komórki mięśniowe. Rozwiązanie jest bardzo złożone, ale też wykazuje wielostronność zabezpieczeń przed zakłóceniami*. Ewolucja, powiedzieliśmy, rozwiązała to zadanie w oparciu o „zimną” technologię katalizy molekularnej, osadzoną w ośrodku płynnym. Możemy wyobrazić sobie drogę ku rozwiązaniu analogicznemu przy użyciu stałego budulca np. jako konstrukcję homeostatów krystalicznych. W tym kierunku zmierzają inżynieria molekularna oraz fizyka ciała stałego.

O zbudowaniu takiego „uniwersalnego homeostatu”, jakim jest komórka, nie możemy na razie myśleć. Idziemy drogą odwrotną od ewolucyjnej: ponieważ łatwiej nam, paradoksalnie, produkować homeostaty wąsko wyspecjalizowane. Odpowiednikami neuronu np. są neuristory, neuromimy, artrony, z których buduje się odpowiednie układy, jak MIND (Magnetic Integrator Neuron Duplicator), który wypełnia funkcję logiczną rozpoznawania rozmaitych rysunków złożonych z szeregu sygnałów informacyjnych. Układy typu kriotronu mogą już niemal rywalizować rozmiarami z komórką nerwową (jeszcze dziesięć lat temu elementy takie, więc lampy katodowe, były milion razy większe od neuronu!), a przewyższają ją szybkością działania. Na razie nie umiemy odtworzyć tendencji samonaprawczych. Notabene nie regeneruje się też tkanka ośrodkowego układu nerwowego. Ale znamy układy krystaliczne, powstające przez śladowe zanieczyszczenie atomowej siatki — atomami określonych pierwiastków, w taki sposób, że całość zachowuje się, w zależności od wstępnego zaprojektowania, jako wzmacniacz kaskadowy, jako heterodyna, jako przekaźnik, prostownik itp. Z podobnych kryształów można złożyć np. odbiornik radiowy. Dalszym krokiem będzie już nie układanie dowolnej całości funkcjonalnej z bloków krystalicznych, ale radio (czy mózg elektronowy) z jednej bryły kryształu.

Dlaczego zależy nam na takim rozwiązaniu? Otóż osobliwością podobnego systemu jest to, że radio–kryształ, rozcięty na dwoje, stanowi dwa niezależne i w dalszym ciągu działające, tyle że z połowiczną mocą, radioaparaty. Można rozcinać te części dalej i za każdym razem otrzymamy „radio”, i to dopóty, dopóki ostatnia cząstka będzie jeszcze zawierała niezbędne części funkcjonalne, którymi są atomy. W ten sposób dochodzi się do owej granicy wykorzystania parametrów budulca, którą, na innym, by tak rzec, froncie materii — w koloidach — osiągnęła ewolucja, łona bowiem stosuje „inżynierię molekularną”, od której całe swoje dzieło konstruktorskie zaczęła. Od początku cegiełkami jej są molekuły i potrafiła wyselekcjonować je zarówno pod kątem użyteczności dynamicznej, jak i pojemności informacyjnej (źródłem uniwersalistycznych rozwiązań są enzymy: mogą pełnie bowiem dowolne funkcje syntezy i rozkładu wraz z funkcjami informacyjnego przekazu wewnątrzkomórkowego i dziedzicznego, jako elementy genów chromosomowych). Wytworzone przez ewolucję układy pracować mogą w wąskim przedziale temperatur, wynoszącym około 40–50 stopni Celsjusza, i to nie niżej punktu zamarzania wody (w której zachodzą wszystkie reakcje życia). Dla molekularnej mikrominiaturyzacji korzystniejsze są tempera tury niskie, nawet pobliże absolutnego zera, bo wtedy dzięki fenomenowi nadprzewodliwości taki system zyskuje określoną przewagę nad biologicznymi (chociaż, dodajmy uczciwie, daleko mu do przewagi we wszystkich uwzględnionych przez życie parametrach).

Dzięki stwarzanej przez niską temperaturę równowadze systemowej, większej od tej, jaką ustala kropla protoplazmy, konieczność interwencji samonaprawczych maleje. Zamiast więc rozwiązać to zadanie, niejako obchodzimy je bokiem. Skądinąd wiemy, że kryształy wykazują „samonaprawcze tendencje”, bo kryształ uszkodzony, a zanurzony w roztworze, samoistnie uzupełnia swą siatkę atomową. Otwiera to określone perspektywy, choć na razie nie umiemy ich jeszcze urzeczywistnić. Daleko trudniejszy problem stwarza „homeostaza gazowa”. Problem nie był, o ile wiem, poruszany w literaturze fachowej. Trudno bowiem uznać za taką — powieść fantastyczną Black Cloud*, chociaż jej autorem jest znany astrofizyk, Fred Hoyle.

Niemniej „organizm”, jaki tam ukazał, ogromna mgławica, zbiorowisko pyłu i gazów kosmicznych, która posiada stabilizowaną polami elektromagnetycznymi strukturę dynamiczną, jest — jak myślę — do skonstruowania. Inna sprawa, rozumie się, czy takie „organizmy” z elektryczności i gazów mogą powstawać w toku międzyplanetarnej „ewolucji naturalnej”. To wydaje się, dla wielu powodów, niemożliwe.

Wygląda na to, że omawiamy sprawy najzupełniej fantastyczne i że dawno przekroczyliśmy już granicę dozwolonego. Ale tak chyba nie jest. Można wypowiedzieć, w formie ogólnego prawa, twierdzenie następujące: Te i tylko te homeostazy urzeczywistniane są siłami Natury, których stany końcowe osiągalne są na drodze stopniowego rozwoju, zgodnie z kierunkiem ogólnego prawdopodobieństwa termodynamicznego zjawisk. Zbyt wiele rzeczy nierozważnych powiedziano już o Pani Wszechświata, Entropii, o „buncie żywej materii przeciw drugiemu prawu termodynamiki”, abyśmy nie mieli wyraźnie podkreślić, jak bardzo nieostrożne są takie na poły metaforyczne tezy i jak mało mają wspólnego z rzeczywistością. Pierwotna mgławica posiada mniej uporządkowania, dopóki jest zimną chmurą atomową, od Galaktyki, złożonej w ścisły kształt dysku z posegregowanym materiałem gwiazdowym. Pozorny „bezład” pierwotny taił w sobie wszakże źródło wysokiego ładu w postaci struktur jądrowych. Kiedy mgławica rozpadnie się w protogwiazdowe wiry, kiedy siły ciążenia ścisną te kule gazowe dostatecznie, nagle „pękają drzwi” energii atomowej i wyrzucone promieniowanie poczyna w walce z grawitacją kształtować gwiazdy i ich systemy. Całkiem ogólnie zaś — wielkie układy materialne zmierzają wprawdzie do stanów maksymalnie prawdopodobnych, więc największej entropii zawsze, ale poprzez tak wiele stanów pośrednich, ponadto drogami tak rozmaitymi, wreszcie — w czasie nieraz tak długim, liczonym dziesiątkami miliardów lat, że „po drodze” może się zrodzić, bynajmniej nie „wbrew” drugiemu prawu termodynamiki, nie jeden i nie dziesięć rodzajów ewolucji samoorganizującej, ale ich niezliczone mrowie. A zatem istnieje olbrzymia, ale jeszcze pozornie pusta (bo nie znamy jej elementów) klasa układów homeostatycznych możliwych do zbudowania, już to z budulca stałego, już to z ciekłego czy gazowego, przy czym posiada ona pewną osobliwą podklasę — zbiór takich homeostatów, jakie mogą powstać bez zewnętrznej ingerencji osobowego Konstruktora, a jedynie dzięki sprawczym siłom Natury.

Z czego jawnie wynika, że człowiek może przewyższyć Naturę: ponieważ ona potrafi konstruować tylko niektóre z możliwych homeostatów, my natomiast, po zdobyciu niezbędnej wiedzy, budować możemy wszystkie.

Taki kosmiczny optymizm konstruktorski należy zaopatrzyć zastrzeżeniem, najeżonym licznymi „jeżeli”. Nie wiadomo, czy ludzkość zdobędzie wszelką niezbędną dla powyższych „zadań budowlanych” informację. Być może, istnieje „granica zdobywania informacji” tak samo, jak granica szybkości światła. Nic o tym nie wiemy. Poza tym godzi się przypomnieć o aktualnych proporcjach zadania „człowiek przeciw Naturze”. Mrówki obiecujące sobie przenieść na swych grzbietach łańcuch Himalajów na inne miejsce to my wobec powyższego problemu. Może zresztą przesadzam na korzyść mrówek. Może ich zadanie byłoby jednak łatwiejsze. A to wówczas, kiedy się całość współczesnych technologii przyrówna do narzędzi, jakimi dysponują mrówki, tj. własnych ich szczęk i grzbietów. Jedna tylko zachodzi różnica — ta, że mrówki mogą swe narzędzia rozwijać jedynie w ramach ewolucji biologicznej, my natomiast możemy uruchomić, jak była o tym mowa, ewolucję informacyjną. I ta właśnie różnica może zadecyduje kiedyś o wygranej człowieka.


Konstrukcja śmierci

 

Żywe ustroje odznaczają się ograniczonym czasem trwania, jak również procesami starzenia się i śmierci. Nie są to jednak procesy nierozdzielne. Jednokomórkowce mają kres jako indywidua, ale nie umierają, gdyż dzielą się na potomne. Niektóre tkankowce, np. stułbie, rozmnażające się przez pączkowanie, mogą w laboratoryjnych warunkach żyć bardzo długo bez objawów starzenia się. Nieprawdą jest zatem, jakoby każda protoplazma tkankowca musiała się starzeć; a zatem starzenia się koloidów (ich gęstnienia, przechodzenia ze solu w żel, ze stanu płynnego w galaretowaty) nie można utożsamiać ze starością życia. Owszem, koloidy plazmy starzeją się podobnie jak koloidy abiologiczne, ale pozorna przyczyna jest skutkiem. Starzenie się komórkowych koloidów jest wynikiem utraty kontroli nad procesami życiowymi, a nie na odwrót.

Znakomity biolog, J. B. S. Haldane, wypowiedział hipotezę, jakoby śmierć osobniczą wywoływały czynniki dziedziczne: geny letalne, manifestujące się w życiu Organizmu tak późno, że już odselekcjonowaniu przez dobór naturalny nie podlegające. Trudno taką hipotezę przyjąć. Nie tylko nieśmiertelność, ale nawet matuzalemowa długowieczność w ewolucji nie popłaca. Organizm, choćby i nie starzał się osobnicze (tj. „nie psuł się”), starzeje się w obrębie ewoluującej populacji w takim sensie, w jakim skądinąd świetnie zachowany model forda z roku 1900 jest dzisiaj kompletnie przestarzały, jako rozwiązanie konstrukcyjne niezdolne do rywalizacji ze współczesnymi samochodami.

Ale i jednokomórkowe organizmy nie mogą nie dzielić się przez czas dowolnie długi. Można, co prawda, „zmusić je” do długowieczności, kilkadziesiąt razy większej od przeciętnego trwania osobniczego, a to trzymając je na „diecie” tak skąpej, że zaledwie starczy dla podtrzymania życiowych funkcji ustroju, a nie dostarcza materiału dla powiększenia go, celem wytworzenia dwu organizmów potomnych. Stare klony (populacje) najprostszych w pewnym sensie starzeją się; osobniki w nich zaczynają ginąć i ożywia je dopiero proces koniugacji, w którym dochodzi do wymiany informacji dziedzicznej. Prawdę mówiąc, sprawa jest niezrozumiała. Problem śmierci można rozpatrywać rozmaicie. Czy została ona „wbudowana” w organizmy przez ewolucję? Czy jest zjawiskiem raczej przypadkowym, wtórnym skutkiem konstruktorskich decyzji, dotyczących spraw innych niż istnienie osobnicze? Czy jest to zatem odpowiednik aktu zniszczenia, jakim konstruktor przekreśla rozwiązanie poprzednie, biorąc się do opracowania nowego, czy raczej nie zamierzony rezultat jakiegoś „zmęczenia materiałów”?

Niełatwo o jednoznaczną odpowiedź. Winniśmy rozróżnić dwie rzeczy: długowieczność bowiem jest zadaniem do rozwiązania odmiennym od umieralności. Długowieczność staje się, jakeśmy o tym wspomnieli, biologicznie ważna, gdy potomstwo wymaga dłuższej opieki, zanim się usamodzielni. Są to jednak wypadki wyjątkowe. Zasadniczo, gdy dobór naturalny się dokonał i potomstwo zostało spłodzone, los organizmów rodzicielskich staje się ich prawą „indywidualną”, to jest, w przyrodzie, niczyją. Jakiekolwiek procesy degeneracyjne towarzyszyłyby starości, nie wpływają one na dalszy bieg ewolucji gatunku. Kły starych mamutów krzyżowały się, skazując je na powolną śmierć głodową, ale selekcja nie mogła tego zjawiska usunąć, bo zachodziło po ustaniu życia płciowego. Starość zwierząt czy roślin, przesunięta poza granicę doboru, nie podlega już jego ingerencji. Dotyczy to nie tylko zmian zwyrodnieniowych, ale i długowieczności. O ile nie jest korzystna biologicznie (jak to było w zaraniu człowieka) ze względu na los pokolenia potomnego, długowieczność, gdyby wynikła losowo wskutek określonej mutacji, tak samo losowo zostanie skazana na zniknięcie, ponieważ nie ma czynnika selektywnego, który by mógł ją utrwalić genetycznie. Widać to zresztą z rozkładu długowieczności w państwie roślinnym i zwierzęcym. Jeśli geny selekcyjnie ważne przypadkowo sprzęgną się z warunkującymi długowieczność, trafia ona na swą jedyną właściwie szansę. Być może dlatego długo żyją żółwie i papugi. Nie ma bowiem wyraźnej korelacji między typem zwierzęcym a długowiecznością: inne ptaki żyją raczej krótko. To znów sprzyja długowieczności środowisko; dlatego najdłużej żyjącymi organizmami są sekwoje (5–6000 lat).

Czynnikiem bez wątpienia ewolucyjnie koniecznym jest rozród; ograniczenie w czasie osobniczego istnienia stanowi już tylko jego konsekwencję. Do rozrodu organizm musi dojść w pełni sprawności życiowej; jego dalsza egzystencja jest niejako rezultatem „bezwładności”, tj. wynikiem tego „pchnięcia dynamicznego”, — jakie zapoczątkowała embriogeneza. Ewolucja jest jak strzelec, który pragnie dosięgnąć określonego celu, np. lecącego ptaka; co się stanie z kulą potem, kiedy osiągnie ów cel, dokąd poleci dalej, czy będzie szybować wiecznie, czy też zaraz spadnie na ziemię, nie ma to ani dla niej, ani dla niego znaczenia. Nie należy oczywiście upraszczać zbytnio zagadnienia. Trudno porównywać organizmy tak różne, jak sekwoje i stułbie — z kręgowcami. Wiemy, że złożoność nie jest równa złożoności, że prawa dynamiczne takich układów mają swą hierarchię. Z tego, że stułbia jest prawie nieśmiertelna, właściwie niewiele wynika dla człowieka jako „strony zainteresowanej”. Stałe utrzymanie wewnątrzustrojowej korelacji procesów musi być tym trudniejsze, im większa jest wzajemna zależność elementów budowy, czyli im ściślejsza organizacja całości. Każda komórka popełnia w toku swej egzystencji „błędy molekularne”, których sumy po pewnym czasie nie może już skompensować. Nie może przynajmniej, trwając w dotychczasowej postaci; podział jest osobliwą odnową; procesy rozpoczynają po nim swój bieg jak gdyby od nowa. Nie wiemy, czemu tak jest. Nie wiemy nawet, czy tak być musi. A nie wiemy, czy są to zjawiska nieuniknione, ponieważ ewolucja nigdy nie przejawiła „ambicji” rozwiązania zadań regulacji homeostatu przez czas dowolnie długi. Całe jej mistrzostwo zwrócone było w inną stronę — długowieczności gatunków, nieśmiertelności życia ponadindywidualnej, jako sumy przemian homeostatycznych w skali planety — i te, frontalnie atakowane problemy, pokonała.


Konstrukcja świadomości

 

Każdy, kto obserwował dość cierpliwie zachowanie ameby, która wyrusza na łowy w kropli wody, musiał zdumieć się podobieństwem do działania racjonalnego, żeby już nie powiedzieć — ludzkiego, jakie wykazuje ta kropelka protoplazmy. W doskonałej książce Jenningsa, starej, lecz godnej lektury (Das Verhalten der niederen Organismen)*, można ujrzeć i wyczytać historie takich łowów. Pełznąc po dnie swej kropli wodnej, ameba natyka się na drugą, mniejszą, i zaczyna ją otaczać, wysuwając nibynóżki. Tamta usiłuje się wyrwać, ale napastnik mocno trzyma chwyconą część. Ciało ofiary zaczyna się wydłużać, aż pęka. Reszta ocalonej ofiary oddala się z rozsądnym przyspieszeniem, napastnik zaś oblewa plazmą to, co pochłonął, i rusza w swoją drogę. Tymczasem ta część ofiary, która została „zjedzona”, żywo się rusza. Pływając wewnątrz protoplazmy „drapieżcy” dociera nagle do jego błonki powierzchniowej, przerywa ją i wydostaje się na zewnątrz. „Zaskoczony” napastnik pozwala zrazu wymknąć się łupowi, ale natychmiast rusza w pościg. Dochodzi do szeregu wręcz groteskowych sytuacji. Napastnik kilka razy dogania ofiarę, ale ta za każdym wyślizguje mu się. Po wielu daremnych próbach napastnik „zrezygnowany”, daje pokój gonitwie i powoli oddala się w poszukiwaniu lepszego szczęścia łowieckiego.

Najdziwniejsze w przedstawionym przykładzie jest to, w jakim stopniu potrafimy go antropomorfizować. Motywy działań kropelki protoplazmatycznej są nam doskonale zrozumiałe: pościg, pochłonięcie ofiary, początkowy upór w jej gonieniu, wreszcie, rezygnacja wobec „uświadomienia sobie”, że gra nie jest warta świeczki.

Mówimy o tym, w ustępie poświęconym „budulcowi świadomości”, nieprzypadkowo. Świadomość i rozum przypisujemy innym ludziom, bo sami posiadamy jedno i drugie. Przypisujemy oboje w pewnym stopniu bliskim nam zwierzętom, jak psy czy małpy. Im jednak organizm mniej jest budową i zachowaniem podobny do naszego, tym trudniej nam uznać, że może i on zna uczucia, lęki, przyjemności. Stąd cudzysłowy, jakimi zaopatrzyłem historię łowów pełzaka. Materiał, z jakiego „wykonany jest” organizm, może być niezmiernie podobny do budulca naszych ciał, a jednak cóż wiemy, czego się domyślamy na temat doznań i cierpień ginącego chrząszcza czy ślimaka? Tym większe opory i zastrzeżenia budzi sytuacja, w której „organizm” to system złożony z jakichś kriotronów i drutów, utrzymywanych w temperaturze płynnego helu, albo jest blokiem krystalicznym, czy nawet chmurą gazową, w ryzach utrzymywaną polami elektromagnetycznymi.

Problem jużeśmy poruszali, mówiąc o „świadomości maszyny elektronowej”. Teraz wypadałoby tylko to, co tam powiedziane, uogólnić. Bo jeśli o tym, czy X ma świadomość, decyduje wyłącznie zachowanie tego X, to materiał, z jakiego jest sporządzony, nie ma żadnego znaczenia. Tak więc nie tylko człekokształtny robot, nie tylko elektromózg, ale i hipotetyczny ustrój gazowo–magnetyczny, z którym można się wdać w pogawędkę, należą wszystkie do klasy systemów obdarzonych świadomością.

Problem ogólny można sformułować tak: czy doprawdy jest możliwe, że świadomość to taki stan układu, do którego można dotrzeć rozmaitymi sposobami konstrukcyjnymi, jak również przy użyciu rozmaitych materiałów? Uważaliśmy dotąd, że nie wszystko, co żywe, jest świadome, ale świadome musi być żywe. Ale świadomość przejawiana przez systemy najoczywiściej martwe? Z tym szkopułem jużeśmy się spotkali, i jakoś przezeń przebrnęli. Dopóki wzorcem do powtórzenia jest mózg ludzki, niechby w dowolnym materiale, pół biedy. Ale przecież mózg nie jest na pewno jedynym możliwym rozwiązaniem problemu „jak skonstruować układ rozumny i odczuwający”. Co się rozumu tyczy, opory nasze nie będą zbyt wielkie, skorośmy już pobudowali prototypy rozumnych maszyn. Gorzej z „odczuwaniem”. Pies reaguje na dotknięcie gorącego przedmiotu; czy to znaczy, że układ ze sprzężeniem zwrotnym, który wydaje okrzyki, kiedy do jego receptora zbliżyć płonącą zapałkę, także czuje? Nic podobnego, to tylko mechaniczna imitacja, słyszymy. Słyszeliśmy to już mnóstwo razy. Zastrzeżenia takie zakładają, jakoby oprócz działań rozumnych i reakcji na bodźce istniały jeszcze pewne „byty absolutne”, jako to Rozum i Odczuwanie, zjednoczone w Dwójcy Świadomości. Ale tak nie jest.

Fizyk i autor Science–Fiction w jednej osobie, A. Dnieprow, opisał w nowelce eksperyment, mający obalić tezę o „uduchowieniu” maszyny tłumaczącej z języka na język w ten sposób, że elementami maszyny, zastępującymi tranzystory czy inne przełączniki, stali się rozstawieni odpowiednio na, dużej przestrzeni ludzie. Wykonując proste funkcje przekazu sygnałów, przetłumaczyła ta z ludzi zbudowana „maszyna” zdanie z języka portugalskiego na rosyjski, za czym jej konstruktor pytał każdego z ludzi, którzy byli „elementami maszyny”, o treść owego zdania. Nikt jej oczywiście z nich nie znał, bo z języka na język tłumaczył ów system jako pewna dynamiczna całość. Konstruktor (w noweli) wyciągnął z tego wniosek, że „maszyna nie myśli”. Ale jeden z cybernetyków radzieckich zareplikował w piśmie, które umieściło opowiadanie, zauważywszy, że gdyby rozstawić całą ludzkość tak, by każdy człowiek odpowiadał funkcjonalnie jednemu neuronowi mózgu konstruktora z noweli, to układ ów myślałby tylko jako całość i żadna z osób, biorących udział w tej „zabawie w mózg ludzki” nie rozumiałaby, o czym ów „mózg” myśli. Z czego jednak doprawdy nie wynika, jakoby sam konstruktor pozbawiony był świadomości. Maszyna może być zbudowana nawet ze sznurków lub nadpsutych jabłek; z atomów gazu lub z wahadeł; z płomyków, impulsów elektrycznych, kwantów promienistych i z czego się żywnie chce, byle tylko funkcjonalnie stanowiła odpowiednik dynamiczny mózgu — a będzie się zachowywała „rozumnie”, jeśli „rozumny” znaczy tyle, co umiejący działać w sposób uniwersalny, podczas dążenia do celów, ustalanych na podstawie wszechstronnego wyboru, a nie zaprogramowanych z góry (jak instynkty owadów np.). Uniemożliwić którąś z tych realizacji może tylko trudność techniczna (ludzi jest na Ziemi zbyt mało dla „powtórzenia” nimi, jako neuronami, mózgu ludzkiego, poza tym trudno byłoby uniknąć dodatkowego łączenia ich jakimiś telefonami lub tp.). Ale te problemy nie dotykają wcale zastrzeżeń, podnoszonych przeciw „świadomości maszynowej”.

Powiedziałem kiedyś (w moich Dialogach), że świadomość jest to taka cecha systemu, którą poznaje się, będąc samemu tym systemem. Chodzi oczywiście nie o byle jakie systemy. Nawet niekoniecznie o systemy znajdujące się poza naszym ciałem. W każdej z jego ośmiu bilionów komórek znajduje się co najmniej kilkaset takich enzymów, które wrażliwe są na koncentrację określonego produktu chemicznego; czynna grupa enzymu jest tu swoistym „wejściem”. Enzymy owe „odczuwają” zatem niedobór lub nadmiar produktu, co uruchamia ich właściwe reakcje, ale cóż my, właściciele wszystkich owych komórek i enzymowych systemów, o tym wiemy? Dopóki latać mogły wyłącznie ptaki czy owady, dopóty „latające” utożsamiało się z „żywym”. Ale wiemy nadto dobrze, że mogą latać dziś i urządzenia doskonale „martwe”, i nie inaczej jest z problemem myślenia rozumnego i odczuwania. Sąd, jakoby maszyna elektronowa zdolna była w końcu do myślenia, ale na pewno nie do odczuwania, doznawania emocji, wynika z tego samego nieporozumienia. Przecież nie jest tak, aby pewne komórki nerwowe mózgu posiadały właściwości przełączników logicznych, a znów inne zajmowały się „doznawaniem odczuć”; jedne i drugie są do siebie bardzo podobne i różnią się tylko miejscem zajmowanym w sieci neuronowej. Tak samo komórki pola wzrokowego i słuchowego są w gruncie rzeczy jednorodne, i jest całkiem możliwe, że skrzyżowanie nerwowych dróg takie, aby nerw słuchowy dochodził do płata potylicznego, a nerw wzrokowy — do ośrodka słuchu, byle zabiegu dokonać bardzo wcześnie (np. u noworodka), doprowadziłoby do jako tako sprawnego widzenia i słyszenia, mimo że „widziałoby się” korą słuchową, a „patrzało” — wzrokową. Nawet całkiem proste układy elektroniczne posiadają już połączenia typu „nagrody” i „kary”, więc czynnościowe odpowiedniki doznań „miłych” i „przykrych”. Ten dwuwartościowy mechanizm jest wielce użyteczny, przyspiesza bowiem proces uczenia się, i z tych oczywiście powodów wykształciła go ewolucja. Tak zatem całkiem już ogólnie można orzec, że klasa „homeostatów myślących” zawiera żywe mózgi jako pewną swoją podklasę, a poza nią zaludniona jest homeostatami, w biologicznym sensie najzupełniej „martwymi”. Co prawda, ta „martwota” oznacza jedynie niebiałkowość oraz nieobecność szeregu parametrów właściwych znanym nam, żywym komórkom i organizmom. Z klasyfikacją układu, który, choć zbudowany np. z pól elektromagnetycznych i gazu, zdolny jest nie tylko do przeprowadzania myślowych operacji oraz do reagowania na bodźce, ale ponadto jeszcze potrafi się rozmnażać, pobierać z otoczenia „pokarm” (np. z elektrycznego kontaktu), poruszać się w wybranym dowolnie kierunku, rosnąć i podporządkowywać takie i inne funkcje własnemu trwaniu, jako zasadzie naczelnej — z klasyfikacją podobnego homeostatu byłby niemały kłopot.

Jednym słowem, co się tyczy świadomości homeostatów, potrzebne są nie tyle odpowiedzi „dogłębne”, ile definicje. Czy znaczy to, że wróciliśmy do punktu wyjścia, aby wyjaśnić, że masło jest, ex definitione — maślane? Bynajmniej. Należy ustalić empirycznie, które parametry systemu muszą pozostać nie zmienione, aby świadomość mogła się w nim zamanifestować. Ponieważ między świadomością „jasną” a „zmąconą”, między „czystą” a „pomroczną” granice są płynne, przyjdzie granice takich stanów przeprowadzić arbitralnie, zupełnie tak samo, jak arbitralnie tylko możemy ustalić, czy nasz znajomy, p. Smith, jest już łysy, czy jeszcze nie. W ten sposób uzyskamy zbiór parametrów konieczny dla ukonstytuowania świadomości. Jeśli wszystkie je przejawi system najzupełniej dowolny (np. zbudowany ze starych piecyków żelaznych), przypiszemy mu świadomość. A jeżeli to będą inne parametry albo nieco inne wartości parametrów ustalonych? Wtedy, zgodnie z definicją, powiemy, że system nie przejawia świadomości człowieka (tj. typu ludzkiego), i będzie to najoczywiściej prawdą. A jeżeli system, choć nie przejawia owych parametrów, zachowuje się jak geniusz, rozumniejszy od wszystkich ludzi naraz? Niczego to nie zmienia, bo skoro taki mądry, nie ma świadomości człowieka: żaden człowiek nie jest równie genialny. Czy to aby nie jest, spyta ktoś, sofistyka? Przecież możliwe jest, że jakiś system ma „mną świadomość” od ludzkiej. Jak właśnie ów „genialny”. Albo taki, któremu największą rozkosz przynoszą (jak powiada) kąpiele w promieniowaniu kosmicznym.

W ten sposób wykraczamy poza granice języka. Nic nie wiemy o możliwościach „innej świadomości”. Gdyby się, naturalnie, okazało, że świadomość „ludzkiego typu” charakteryzują parametry A, B, C i D o wartościach, odpowiednio, 3, 4, 7 i 2; gdyby jakiś system wykazywał wartości owych parametrów 6, 8, 14 i 4; gdyby przejawiał niezwykły zgoła, może i niedostępny naszemu pojmowaniu rozum, trzeba by się zastanowić, czy dozwolone będzie ryzyko ekstrapolacji (aby go uznać za obdarzonego jakąś „dubeltową świadomością”). To, co powiedziałem, brzmi tyleż naiwnie, co prostacko. Rzecz po prostu w tym, że owe parametry jak również ich wartości nie będą prawdopodobnie izolowane, ale będą stanowiły pewne węzły „ogólnej teorii świadomości”, czy raczej „ogólnej teorii homeostatów myślących o stopniu złożoności nie mniejszej od złożoności mózgu ludzkiego”. W ramach owej teorii będzie można dokonać pewnych ekstrapolacji, obarczonych naturalnie określonym ryzykiem. Jakże weryfikować ekstrapolacyjne hipotezy? Budowaniem „elektronowych przystawek” do ludzkiego mózgu? Ale tutaj dosyć już powiedzieliśmy, a może i zbyt wiele; najrozsądniej przeto będzie zamilknąć, dodając tylko, że, jak chyba to samo przez się zrozumiałe, nie wierzymy wcale w możliwość zbudowania myślących osobowości ze sznurków, nad—psutych jabłuszek czy piecyków żelaznych; podobnie i pałace trudno raczej budować z ptasich piórek lub mydlanej piany. Nie każdy materiał jednakowo jest przydatny jako substrat konstrukcji, w której ma nastąpić „rozruch świadomości”. Ale jest to chyba dostatecznie oczywiste, aby warto poświęcić sprawie choć jedno jeszcze słowo.


Konstrukcje oparte na błędach

 

Paradoks termodynamiczny o stadzie małp stukających na oślep w maszyny do pisania tak długo, aż się z tego przypadkowo złoży Encyklopedia Brytyjska, został urzeczywistniony przez Ewolucję. Niezliczona ilość czynników zewnętrznych zwiększać może umieralność populacji. Odpowiedzią jest selekcja na wysoką płodność. Oto kierunkowy skutek działania bezkierunkowego. Tak z nakładania na siebie dwu systemów zmian, z których każdy jest w stosunku do drugiego losowy, powstaje ład coraz doskonalszej organizacji.

Płci istnieją dlatego, ponieważ są ewolucyjnie korzystne. Akt płciowy umożliwia „konfrontację” dwu rodzajów informacji dziedzicznej. Dodatkowym mechanizmem, który jednocześnie upowszechnia w populacji „nowinki konstrukcyjne”, „wynalazki”, czyli po prostu mutacje, i zarazem chroni organizmy przed szkodliwymi skutkami manifestowania się — w rozwoju osobniczym — tychże „nowinek” — jest heterozygotyczność. Zygota jest komórką powstałą ze zlania się dwu komórek płciowych, męskiej i żeńskiej, przy czym geny poszczególnych cech — allele — mogą być dominujące bądź recesywne. Dominujące przejawiają się w rozwoju; recesywne tylko wtedy, jeśli spotkają swoich recesywnych partnerów. Mutacje są bowiem z reguły szkodliwe i osobnik, zbudowany w myśl nowego, zmutowanego planu genotypowego, ma zwykle mniej szans przeżycia niż normalny. Z drugiej strony, mutacje są nieodzowne, jako próba wyjścia z krytycznej sytuacji. Owady latające wydają czasem potomstwo bezskrzydłe, które najczęściej ginie. Gdy ląd opada lub morze wznosi się, dawny półwysep może się stać wyśpij. Wiatry znoszą owady latające nad wody, w których one giną. Wtedy bezskrzydłe mutanty stają się szansą kontynuacji gatunku. Tak więc, mutacje są jednocześnie szkodliwe i pożyteczne. Ewolucja zjednoczyła obie strony zjawiska. Gen mutujący jest przeważnie recesywny i spotykając się z normalnym, który dominuje, nie przejawia się w konstrukcji dorosłego organizmu. A jednak tak zrodzone osobniki noszą utajoną cechę zmutowaną i przekazują ją potomstwu. Pierwotnie mutacje recesywne występowały zapewne z taką samą częstością, jak dominujące, te ostatnie jednak likwidował dobór naturalny, ponieważ podlegają mu wszystkie cechy, wraz z samym mechanizmem dziedziczności, wraz ze skłonnością do imitowania („mutabilnością”). Ostały się w przewadze mutacje recesywne, tworząc wewnątrz populacji jej pogotowie alarmowe, jej ewolucyjną rezerwę.

Mechanizm ten, oparty zasadniczo na błędach informacyjnego przekazu, za jakie uważamy mutacje, nie jest rozwiązaniem, do jakiego by się przychylił konstruktor osobowy. W pewnych warunkach mechanizm ten zezwala na przejawianie się nowych cech konstrukcyjnych pod nieobecność selekcji. Zachodzi to w małych, odosobnionych populacjach, gdzie dzięki wielokrotnym krzyżówkom osobników pochodzących od tych samych rodziców, dzięki wywołanej tym uniformizacji genowych garniturów, zmutowane recesywne cechy mogą się spotykać tak często, że pojawia się dość nagle znaczna ilość mutantów fenotypowych. Zjawisko nosi nazwę „dryfu genetycznego”. W ten sposób mogły powstawać pewne, niewytłumaczalne skądinąd formy organizmów (gigantyzm rogów jelenich, itp.). Co prawda, nie wiemy, czy to ten czynnik ukształtował wielkie kostne „żagle” grzbietowe mezozoicznych jaszczurek; nie umiemy rozstrzygnąć tego zagadnienia, bo przyczyną sprawczą mógł być także dobór płciowy, a nie znamy gustów jaszczurek sprzed milionów lat.

To, że sama częstość mutacji jest także cechą dziedziczną, że ją pewne geny zwiększają lub zmniejszają, rzuca na problem dość osobliwe światło. Przyjmuje się, że mutacje są przypadkiem, zmieniającym tekst kodu dziedzicznego, więc utratą kontroli nad jego przekazem. Jeśli były nawet kiedyś losowe, selekcja nie mogła ich jak gdyby wyeliminować. Otóż bardzo ważne jest, z konstrukcyjnego punktu widzenia, czy nie mogła dlatego, ponieważ „nie chciała”, tj. ponieważ gatunek nie mutujący traci ewolucyjną plastyczność i przy zmianach zachodzących w środowisku ginie, czy też korzyści pokrywają się z obiektywną koniecznością: że mutacje są nieuchronne jako efekt statystycznych ruchów molekularnych, nie do opanowania.

Z ewolucyjnego punktu widzenia jest takie rozróżnienie obojętne, ale dla nas może być istotne, bo jeśli zawodność molekularnych układów informacjonośnych typu genów jest nieuchronna Jak można będzie projektować niezawodne układy o stopniu komplikacji dorównującym organicznemu? Powiedzmy, że pragniemy sporządzić „plemniki cybernetyczne”, które, wgryzając się w skorupę obcej planety, z jej materiału wytworzyć mają potrzebną nam maszynę. „Mutacja” może doprowadzić do tego, że maszyna będzie na nic. Ewolucja radzi sobie, ponieważ, jako konstruktor statystyczny, nigdy nie stawia na rozwiązanie singularne, ale jej stawką jest zawszą populacja. Rozwiązanie dla inżyniera nie do przyjęcia: czy ma uruchomić na tej planecie z przykładu „las rozwijających się maszyn”, aby dopiero z niego wybrać najsprawniejszą? Cóż dopiero, gdyby zadaniem było projektowanie układów bardziej złożonych od genotypowego, na przykład takich, które mają zaprogramować „wiedzę dziedziczną”, jakeśmy o tym mówili. Jeśli wzrost złożoności zwiększa automatycznie powyżej pewnej granicy mutabilność, zamiast niemowlęcia z opanowaną mechaniką kwantową możemy zyskać istotę niedorozwiniętą. Problemu nie umiemy na razie rozstrzygnąć: wymaga dalszych badań cytologicznych i genetycznych.

Z kontrolą przekazu informacji i korelacją międzykomórkową wiąże się sprawa nowotworów. Najprawdopodobniej rak jest skutkiem łańcucha kolejno następujących po sobie mutacji somatycznych. Literatura problemu jest tak otchłanna, że nie możemy zapuszczać się w jej głębie. Powiedzmy tylko, że brak danych, które by ten pogląd obalały. Komórki dzielą się w tkankach na przestrzeni całego życia; ponieważ przy każdym podziale możliwy jest, ,lapsus „ mutacyjny, szansa nowo tworzenia jest proporcjonalna do ilości podziałów, a więc i do długości osobniczego życia. W rzeczywistości zapadalność na nowotwory rośnie z postępem geometrycznym w miarę starzenia się organizmu. Wynika to zapewne stąd, że pewne mutacje somatyczne są niejako przygotowaniem następnych, przedrakowych, które po serii dalszych podziałów wytwarzają już komórki nowotworów. Organizm może się do pewnego stopnia bronić przed inwazją nowotworowego rozplemu, a siły obronne słabną z jego wiekiem, więc i ten czynnik wpływa na rakowacenie. Rakotwórczo działają najrozmaitsze czynniki, w rodzaju pewnych związków chemicznych i promieniowania jonizującego; wspólny im jest wpływ niszczący informację chromosomową. Działanie czynników rakotwórczych jest zatem nieswoiste, przynajmniej częściowo: stanowią one „szum”, który zwiększa prawdopodobieństwo kolejnych omyłek podczas komórkowych podziałów. Nie każda mutacja somatyczna prowadzi do raka; poza tym istnieją formy nowotworów dobrotliwych, będące wynikiem swoistych mutacji; komórka musi zostać uszkodzona nie aż tak bardzo, by zginęła, a tylko tak, by jądro jej, jako regulator, wyszło spod kontroli organizmu jako całości. Czy z tego wynika pośrednio, że mutacje są zjawiskiem nieuchronnym? Argument to dyskusyjny, bo równie dobrze możliwe jest, że mamy do czynienia z odległą konsekwencją założeń konstrukcyjnych, przyjętych przez Ewolucję wstępnie. Komórka cielesna nie zawiera przecież genotypowo więcej informacji, niż jej zawierała komórka płciowa, z której powstał cały organizm. Jeśli więc tamta dopuszczała mutabilność, somatyczna, będąc jej pochodną, odziedziczy i tę cechę. Komórki nerwowe ośrodkowego układu nerwowego nie podlegają nowotworzeniu, ale też się nie dzielą, a przemiana możliwa jest tylko w trakcie kolejnych podziałów. Rak byłby więc niejako skutkiem „decyzji mutowania”, podjętej przez Ewolucję w jej najwcześniejszych stadiach.

Hipoteza wirusowa daje się pogodzić z mutacyjną, ponieważ pokrewieństwo biochemiczne wirusów i genów jest znaczne. „Gen raka” może być w pewnym sensie „wirusem raka”. Wirusem nazywamy jednak system organizmowi obcy, wdzierający się doń z zewnątrz. To właściwie jedyna różnica.

Sprawę komplikuje też wielka różnorodność nowotworów i takie ich odmiany, jak mięsaki, występujące głównie u osobników młodych. Poza tym rak nie jest bynajmniej jakąś koniecznością fatalistyczną, skoro osoby, dożywające niezmiernie podeszłego wieku, wcale nie muszą na tę chorobę zapadać. Wyjaśnienie tylko losowe nie jest wystarczające, ponieważ można (np. u myszy) wyodrębnić czyste linie, nader poważnie różniące się pod względem nowotworzenia, więc jest to skłonność dziedziczna. U człowieka dziedzicznych takich skłonności właściwie nie wykryto. Lecz trudno bardzo oddzielić zmniejszoną częstość kierujących ku rakowej przemianie mutacji od ewentualnie wysokiej odporności ustroju, wiadomo bowiem, że organizm może komórki rakowe, jeśli są nieliczne, zniszczyć.

Jakkolwiek zostaną wyjaśnione te niezrozumiałe jeszcze zagadnienia, należy sądzić, że podczas kiedy terapia raka, mimo względnie skromnych na razie rezultatów (leczenia zachowawczego zwłaszcza), może liczyć na poważne osiągnięcia w zakresie farmakolecznictwa (środkami cytostatycznymi wysokiej wybiórczości), radykalne usunięcie zapadalności na raka wydaje mi się nie do urzeczywistnienia. Rak jest bowiem konsekwencją jednej z tych zasad działania komórki, które leżą u samych podstaw życia.


Bionika i biocybernetyka

 

Omówiliśmy zarówno dynamikę przekazu informacyjnego, jak i technikę jego zapisu dziedzicznego (tę ostatnią w prologu Hodowli informacji). Łącznie stanowią one metodę, z pomocą której ewolucja jednoczy maksymalną stabilizację genotypów z ich niezbędną plastycznością. Embriogeneza polega nie tyle na uruchamianiu określonych programów wzrostu mechanicznego, ile na rozruchu obdarzonych wielką autonomią regulatorów zaopatrzonych tylko „ramowymi dyrektywami”. Nie jest więc rozwój płodowy po prostu „wyścigiem” startujących w zapłodnieniu reakcji biochemicznych, lecz ich nieustannym współdziałaniem i współkształtowaniem, jako całości.

Także w dojrzałym organizmie toczy się nieustająca gra między hierarchiami regulatorów, z których jest on zbudowany. Konsekwentnym przedłużeniem zasady „niechaj sobie radzą, jak mogą” przy dostarczaniu wariantów reagowania, ale bez ich sztywnego zaprogramowania, jest nadanie organizmowi autonomii osobniczej najwyższego rzędu, dzięki skonstruowaniu „regulatora drugiego stopnia”, systemu nerwowego.

Organizm jest więc „multistatem”, układem o tak wielkiej ilości możliwych stanów równowagi, że w życiu osobniczym realizować się może zapewne tylko ich część. Zasada ta jednakowo dotyczy stanów fizjologicznych, jak i patologicznych. I one są swoistymi stanami równowagi, mimo anormalnej wartości, jaką wówczas przybierają niektóre parametry. Organizm „radzi sobie, jak może”, także wtedy, gdy zaczynają się w nim powtarzać reakcje szkodliwe, i ta skłonność do wchodzenia w błędny krąg regulacyjny jest jedną z konsekwencji funkcjonowania wielostabilnej, wysoce złożonej piramidy homeostatów, jaką jest każdy wielokomórkowiec.

Ze stanu takiego nie może go wtedy wytrącić antagonizm skutecznego w normie, nadrzędnego sterowania, opartego najczęściej na jednowymiarowej skali oscylowania między dwiema wartościami (hamowanie—pobudza—nie, zwyżka lub obniżenie ciśnienia krwi, wzrost lub spadek jej kwasowości, przyspieszenie lub zwolnienie tętna, perystaltyki jelitowej, oddechu, wydzielania gruczołowego itd.). Istnieje regulacja całkowicie lokalna, na granicy zasięgu nadzorczego mózgu (gojenie się ran), która w starości słabnie („anarchia peryferii organizmu”: degeneratywne zmiany lokalne, dające się łatwo obserwować np. na skórze osobników w podeszłym wieku), regulacja narządowa, systemowa i wreszcie całościowa. W hierarchii tej przeplatają się dwie metody przekazywania informacji sterującej i zwrotnej: metoda przekazu sygnałami nieciągłymi (dyskretna) i sygnałami ciągłymi (analogowa). Pierwszą stosuje raczej układ nerwowy, drugą — raczej układ gruczołów dokrewnych, ale i to nie jest rozgraniczenie jednoznaczne, ponieważ sygnały mogą być adresowane przewodowe (jak przy połączeniu telefonicznym) lub iść wszystkimi kanałami informacyjnymi z tym, że tylko właściwy adresat na nie reaguje (jak przy wysyłaniu sygnałów radiowych, które wprawdzie może odebrać każdy, ale które dotyczą tylko jakiegoś jednego okrętu na morzu). Gdy „sprawa jest ważna”, organizm uruchamia przekaz informacji dublowany: zagrożenie powoduje równocześnie wzmożenie gotowości tkanek i narządów drogami nerwowymi, a zarazem zostaje wyrzucony do krwi hormon „analogowego działania”, adrenalina. Ta wielość informacyjnych kanałów zapewnia działanie nawet,, gdy niektóre sygnały nie dochodzą.

Mówiliśmy już o bionice, nauce zajmującej się wcielaniem w technikę rozwiązań podpatrzonych w państwie ustrojów żywych; szczególnie wiele rezultatów dały badania narządów zmysłowych, którym czujniki technologa przeważnie ustępują znacznie pod względem czułości. Bionika jest działalnością biotechnologa–praktyka, zainteresowanego w rezultatach doraźnych. Natomiast bliskie bionice modelowanie układów żywych (zwłaszcza systemu nerwowego, jego części i narządów zmysłowych), nie mające na celu doraźności technicznej, ale raczej poznanie funkcji i struktury organizmów, należy do biocybernetyki. Zresztą granice między tymi nowymi gałęziami są płynne. Biocybernetyka wkroczyła już szerokim frontem w medycynę. Obejmuje ona protetykę organów i funkcji (sztuczne serce, serce—płuca, sztuczna nerka, wszczepiane pod skórę aparaty bodźcotwórcze dla serca, protezy elektronowe kończyn, aparaty do czytania i do orientacji dla ślepych — opracowuje się nawet metody pozagałkowego wprowadzania impulsów w nie uszkodzony nerw wzrokowy niewidomych, co ma związek z postulowaną przez nas fantomatyką), dalej — diagnostykę, jako wprowadzenie „elektronowych pomocników” lekarza, zarówno w formie maszyn diagnostycznych, istniejących już w dwu wersjach (maszyna „diagnosta ogólny” i maszyna „specjalistyczna”), jak i maszyn bezpośrednio wydobywających niezbędną informację z organizmu chorego (aparatura, samoczynnie rejestrująca np. elektrokar—diogram, elektroencefalogram, która dokonuje automatycznej preselekcji, odsiewając informację nieistotną i podając gotowe rezultaty mające diagnostyczną wartość); osobną dziedzinę stanowią „elektronowe przystawki sterujące”: należą tu samoczynny narkotyzator, który jednocześnie bada wartość szeregu parametrów organizmu, więc np. bioprądów mózgowych, ciśnienia krwi, stopnia jej utlenienia itd., w razie potrzeby zwiększając dopływ środka narkotyzującego lub trzeźwiącego albo podnoszącego ciśnienie w razie jego spadku, jak również projektowane aparaty mające już w stały sposób opiekować się pewnymi parametrami organizmu chorego, jak urządzenie, które chory nosi z sobą stale, a które u hipertonika systematycznym dozowaniem odpowiedniego środka utrzymuje jego ciśnienie krwi w normie. Jest to przegląd tyleż lapidarny, co niezupełny. Zauważmy, że tradycyjne środki medycyny, leki, należą do grupy „informatorów analogowych”, ponieważ z reguły podaje się je „ogólnikowo”, wprowadzając je do jam ciała, dotrzewiowo lub do koryta krwi, przy czym lek taki ma już „sam” znaleźć swojego „adresata” układowego bądź narządowego. Natomiast akupunkturę można uważać raczej za metodę wprowadzania informacji „dyskretnej”, przez drażnienie pni nerwowych, gdy więc farmakopea jest działaniem zmieniającym stan wewnętrzny homeostatu bezpośrednio, akupunktura jest działaniem na tego homeostatu „wejścia”.

Ewolucja, jak każdy konstruktor, nie może liczyć na osiągnięcie dowolnego rezultatu. Doskonały jest np. mechanizm „odwracalnej śmierci”, w jaką popadają rozmaite spory, glony, przetrwalniki, a nawet małe organizmy wielokomórkowe. Z drugiej strony, bardzo cenna jest stałocieplność ssaków. Połączenie tych cech byłoby rozwiązaniem wszechstronnym, ale nie jest ono możliwe. Co prawda zbliża się do niego zimowy sen pewnych zwierząt, nie jest on jednak prawdziwą „śmiercią odwracalną”. Funkcje życiowe, krążenie krwi, oddychanie, przemiana materii ulegają spowolnieniu, ale nie ustają. Poza tym stan taki przekracza regulacyjne zakresy mechanizmów fizjologicznych fenotypu. Możliwość jego wystąpienia musi być zaprogramowana dziedzicznie. Stan ten jest wszakże szczególnie cenny — zwłaszcza w erze kosmonautyki, i to najbardziej w postaci, w jakiej występuje u nietoperzy.

Przed ich ukształtowaniem się wszystkie nisze ekologiczne były z pozoru wypełnione. A więc, ptaki owadożerne wypełniały porę dnia i nocy (sowa), nie było też jak gdyby miejsca schronienia dla nowego gatunku na ziemi czy na drzewach. Otóż Ewolucja wprowadziła nietoperze w „niszę” zmierzchu, gdy ptaki dzienne już zasypiają, a nocne jeszcze nie wylatują na łowy. Zmienne i kiepskie warunki oświetlenia czynią wtedy oko bezsilnym. Rozwinęła więc „radar” naddźwiękowy nietoperzy. Nareszcie, za schronienie służą im często stropy jaskiń — również pusta dotąd nisza ekologiczna. Ale najdoskonalszy jest mechanizm hibernacyjny tych latających ssaków. Temperatura ich ciała może opadać do zera. Przemiana tkankowa praktycznie wówczas ustaje. Zwierzę wygląda nie jakby spało, lecz jakby było martwe. Przebudzenie rozpoczyna się od wzrostu przemiany w mięśniach. Po kilku minutach krążenie krwi i oddychanie są już żywe, i nietoperz staje się sprawny do lotu.

W bardzo podobny stan głębokiej hibernacji można wprowadzić człowieka — odpowiednią techniką farmakologiczną i zabiegami ochładzającymi. Jest to niezmiernie interesujące. Znamy wypadki, kiedy wrodzone choroby, będące rezultatem mutacji, a polegające na niewytwarzaniu przez organizm życiowo ważnych ciał, można kompensować, wprowadzając takie ciało do tkanek lub do krwi. Ale w ten sposób przywracamy tylko — czasowo — normę fizjologiczną. Natomiast zabiegi hibernacyjne wykraczają poza tę normę, poza możliwości ustrojowych reakcji, zaprogramowanych genotypowo. Okazuje się, że potencje regulacyjne są wprawdzie ograniczane przez dziedziczność, ale można je odpowiednimi zabiegami poszerzyć. Wracamy tu do sprawy „genetycznego zaśmiecenia” ludzkości, wywołanego, pośrednio, wstrzymaniem przez cywilizację działania doboru naturalnego, i bezpośrednio, skutkami cywilizacji, zwiększającymi mutabilność (promieniowania jonizujące, czynniki chemiczne itp. j. Okazuje się możliwe przeciwdziałanie lecznicze wywołanym dziedzicznością schorzeniom i niedomogom, bez zmiany zdefektowanych genotypów, ponieważ leczniczo wpływa się nie na plazmę rozrodczą, lecz na dojrzewający bądź dorosły organizm. Co prawda leczenie to ma swoją granicę. Defekty, wywołane wczesną manifestacją uszkodzeń genotypu, jak np. kalectwa thalidomidowe, najoczywiściej byłyby nieuleczalne. Zresztą, działanie leczniczo–farmakologiczne wydaje się nam dzisiaj najbardziej niejako naturalne, bo leży w tradycjach medycyny. Być może jednak, że usuwanie „lapsusów” kodu dziedzicznego okaże się zabiegiem prostszym (choć bynajmniej nie aż niewinnym), jak i, oczywiście, radykalniejszym w skutkach od późnej terapii zdefektowanych ustrojów.

Perspektywy tej „antymutacyjno–normalizującej” autoewolucji trudno przecenić: przekształceniami kodu dziedzicznego wpierw zredukowałoby się a potem sprowadziło do zera powstawanie wrodzonych defektów somatycznych i psychicznych, dzięki czemu znikną rzesze nieszczęsnych istot kalekich, których liczba sięga dzisiaj wielu milionów i będzie dalej rosła. Tak więc terapia genotypów, a właściwie ich bioinżynieria, okazałaby się w skutkach zbawienna. Ilekroć okaże się jednak, że nie wystarczy gen zmutowany usunąć, ale że trzeba go zastąpić innym, problem „komponowania cech” stanie przed nami w całej swej groźnej okazałości. Jeden z laureatów Nobla, który właśnie za badanie dziedziczności otrzymał nagrodę, a więc bezpośrednio jakby zainteresowany w sukcesach podobnych, oświadczył, że nie chciałby dożyć czasu ich realizacji, a to ze względu na przeraźliwą odpowiedzialność, jaką człowiek wówczas podejmie.

Chociaż twórcom nauki należy się największy szacunek, zdaje mi się, że ten punkt widzenia nie jest godny uczonego. Nie można równocześnie dokonywać odkryć i wymawiać się od ponoszenia odpowiedzialności za ich konsekwencje. Skutki takiego postępowania, choć w innych, niebiologicznych dziedzinach, znamy. Są one żałosne. Uczony próżno stara się zawęzić swą pracę tak, by miała charakter zdobywania informacji, murami chronionego przed problematyką jej użytkowania. Ewolucja, jakeśmy to już explicite i implicite ukazywali, działa bezwzględnie. Człowiek, poznając stopniowo jej czynności konstruktorskie, nie może udawać, że gromadzi wiedzę wyłącznie teoretyczną. Ten, kto poznaje skutki decyzji, kto zyskuje moc ich pobierania, będzie niósł ciężar odpowiedzialności, z którym Ewolucja, jako konstruktor bezosobowy, tak łatwo sobie radziła, bo dla niej nie istniał.


Oczami konstruktora

 

Ewolucja jest, jako stwórca, niezrównanym żonglerem, wykonującym popisy akrobatyczne w nadzwyczaj trudnej — przez swą technologiczną wąskość — sytuacji. Zasługuje, bez wątpienia, na coś więcej od podziwu — na to, by się u niej uczyć. Ale jeśli odwrócimy oczy od swoistych utrudnień jej działania inżynieryjnego i skoncentrujemy się wyłącznie na jego rezultatach, przychodzi ochota napisania paszkwilu na ewolucję.

Oto zarzuty od mniej ku bardziej generalnym:

 

1) Niejednolita nadmiarowość przekazu informacyjnego i budowy narządów. Zgodnie z prawidłowością, wykrytą przez Dancoffa, Ewolucja utrzymuje nadmiar przesyłanej genotypowo informacji na możliwie najniższym poziomie, jaki jest jeszcze do pogodzenia z kontynuacją gatunku. Jest ona więc jak konstruktor, któremu zależy nie na tym, by wszystkie jego auta dojechały do mety: wystarczy mu zupełnie, jeżeli dojedzie ich większość. Ta zasada „konstruktorstwa statystycznego”, w której o sukcesie decydują przewaga, a nie całość rezultatów, jest naszej mentalności obca[xv]. Zwłaszcza gdy za niską nadmiarowość informacyjną przychodzi płacić nie defektami! maszyn, lecz organizmów, także ludzkich: rocznie 250 000 dzieci rodzi się z poważnymi wadami dziedzicznymi. Minimum nadmiarowości dotyczy też konstrukcji osobniczej. Wskutek niejednolitej zużywalności funkcji i narządów, organizm starzeje się nierównomiernie. Odchylenia od normy zachodzą w różnych kierunkach; mają zwykle charakter „słabości systemowej”, więc np. układu krążenia krwi, trawiennego, stawowego itp. Ostatecznie, mimo całej hierarchii regulatorów, zaczopowanie jednego naczyńka krwionośnego w mózgu albo defekt jednej pompy (serca) — powoduje śmierć. Pewne mechanizmy, które mają takim katastrofom przeciwdziałać, jak np. tętnicze zespolenia naczyń wieńcowych serca, w większości wypadków zawodzą, a ich obecność podobna jest całkiem do „formalnego wykonania przepisów”, jak w jakimś zakładzie, gdzie na właściwym miejscu znajdują się wprawdzie narzędzia przeciwpożarowe, ale tak ich mało, lub tak są „dla parady” przytwierdzone, że w razie nagłej potrzeby nie przydadzą się właściwie na nic.

 

2) Sprzeczna z zasadą poprzednią, oszczędności czy wręcz informacyjnego skąpstwa, zasada nieeliminowania z rozwoju osobniczego jego elementów zbędnych. Przenoszone są, niejako mechanicznie, przez inercję, relikty form dawno minionych, które dany gatunek poprzedziły. Tak np. podczas embriogenezy płód powtarza kolejno fazy rozwojowe zamierzchłych rozwojów embrionalnych, wykształcając kolejno, jak zarodek ludzki, skrzela, ogon itp. Zostają one użyte do innych celów (z łuków skrzelowych powstaje szczęka, krtań), więc pozornie jest to obojętne. Organizm jest jednak systemem tak złożonym, że każdy niekonieczny nadmiar złożoności zwiększa szansę dyskoordynacji, powstawania form patologicznych, wiodących ku nowotworzeniu itp.

 

3) Konsekwencją powyższej zasady „zbędnej komplikacji” jest istnienie biochemicznej indywidualności osobniczej. Międzygatunkowaprzekazywalność informacji dziedzicznej jest zrozumiała, jako że jakaś panhybrydyzacja, możliwość krzyżowania nietoperzy z lisami i wiewiórek z myszami, obaliłaby ekologiczną piramidę ładu żywej przyrody. Ale ta wzajemna obcość genotypów różnogatunkowych kontynuowana jest także w obrębie jednego gatunku jako indywidualna odmienność białek ustrojowych. Nawet biochemiczna indywidualność dziecka różni się od takiej indywidualności matki. Ma to poważne konsekwencje. Owa indywidualność biochemiczna przejawia się zaciekłą obroną organizmu przed każdym białkiem innymi od własnego, uniemożliwiając dokonywanie ratujących życie transplantacji (skórnych, kostnych, narządowych itd.). Aby uratować życie ludziom, których szpik kostny był niezdolny do wytwarzania krwi, trzeba było pierwej porazić całą obronną aparaturę ich ciał — dopiero potem można było przeprowadzić przeszczepy tej tkanki, pochodzącej od ludzkich dawców.

Zasada biochemicznej indywidualności nie podlegała w ewolucji naturalnej naruszeniu, tj. selekcji na jednolitość białek ustrojowych gatunku, ponieważ organizm zbudowany jest tak, by polegać wyłącznie na samym sobie. Ewolucja nie uwzględniła możliwości wspomagającego interweniowania z zewnątrz. Tak więc przyczyny stanu realnego rozumiemy, ale nie zmienia to faktu, że medycyna, niosąc organizmowi pomoc, musi zarazem zwalczać „nierozumną” tendencję tegoż organizmu do obrony przed zbawiennymi zabiegami.

 

4) Ewolucja nie może osiągać rozwiązań na drodze zmian stopniowych, jeżeli każda z takich zmian nie jest użyteczna natychmiast, w danym pokoleniu. Analogicznie, nie może rozwiązywać zadań, które wymagają nie zmian drobnych, lecz radykalnej rekonstrukcji. W tym sensie jest ona „oportunistyczna” i „krótkowzroczna”. Bardzo wiele układów odznacza się przez to zawiłością, która byłaby do uniknięcia. Mówimy teraz o czymś innym niż — w punkcie drugim — „zbędnej komplikacji”, bo tam krytykowaliśmy jej nadmiar ze względu na drogę dojścia do stanu końcowego (komórka jajowa — płód — dojrzały organizm); w punkcie trzecim ukazaliśmy szkodliwość zbędnej komplikacji biochemicznej. Teraz, stając się coraz bardziej obrazoburczymi, krytykujemy już podstawowy plan poszczególnych rozwiązań ogólnoustrojowych. Ewolucja nie mogła np. wytworzyć urządzeń mechanicznych typu koła, ponieważ koło od pierwszej chwili musi być sobą, tj. posiadać oś obrotu, piastę, tarczę itd. Musiałoby więc powstać skokowo, bo najmniejsze nawet jest od razu gotowym kołem, a nie jakąś formą „przejściową”. Otóż co prawda nigdy nie było wielkiej potrzeby takiego właśnie mechanicznego urządzenia w ustrojach, ale dobitnie ukazuje ten przykład, jakiego to typu zadań Ewolucja rozwiązać nie potrafi. Wiele elementów mechanicznych ustroju można by zastąpić niemechanicznymi. Tak np. obieg krwi mógłby się opierać na zasadzie pompy elektromagnetycznej, gdyby serce było organem elektrycznym, wytwarzającym odpowiednio się zmieniające pola, a ciałka krwi były dipolami, bądź też posiadały znaczniejszy wtręt ferromagnetyczny. Taka pompa podtrzymywałaby krwiobieg bardziej równomiernie, z mniejszym nakładem mocy, niezależnie od elastyczności ścian naczyniowych, które muszą kompensować wahania ciśnienia przy kolejnych rzutach krwi w tętnicę główną. Ponieważ narząd przesuwający krew opierałby swą czynność na bezpośredniej przemianie energii biochemicznej w hemodynamiczną, jeden z trudniejszych i właściwie nie rozwiązanych — problem dobrego odżywienia serca w chwili, gdy ono tego najbardziej potrzebuje, tj. w momencie skurczu, przestałby w ogóle istnieć. W sytuacji urzeczywistnionej przez Ewolucję, kurcząc się, mięsień zgniata pewnego stopnia światło naczyń, które go odżywiają, przez co dopływ a więc i tlenu, do włókien mięśniowych chwilowo maleje. Serce oczywiści radzi sobie i w tym stanie rzeczy, ale rozwiązanie jest tym gorsze, że, j widać z powiedzianego, wcale niekonieczne. Nikła rezerwa nadmiarowi dostawy krwi powoduje obecnie, że niedomogi naczyń wieńcowych stano—jedną z głównych przyczyn zgonów w skali światowej. Rozwiązanie „elektromagnetycznej pompy” nie zostało urzeczywistnione nigdy, aczkolwiek Ewolucja potrafi zarówno wytwarzać molekuły dipolowe, jak i organy elektryczne. Ale ukazany projekt wymagałby najzupełniej nieprawdopodobnej a równocześnie zachodzącej zmiany w dwu systemach od siebie całkiem prawi izolowanych: organy krwiotwórcze musiałyby rozpocząć produkcję postulowanych „dipoli” czy „erytrocytów magnetycznych”, a zarazem serce z mięśnia winno by się przekształcać w organ elektryczny. Otóż, taka koincydencja ślepych, jak wiemy, mutacji, to zjawisko, na które można czekać i miliard lat daremnie; jak to się i stało. Zresztą, nawet o ileż skromniejszego zadania, zamknięcia otworu przegrody międzykomorowej u gadów, Ewolucja nie dokonała; gorsza wydajność hemodynamiczna nie przeszkadza jej, bo też w ogóle pozostawia swym tworom najprymitywniejszy nawet rynsztunek biochemiczny i narządowy, jeśli sobie tylko z jego pomocą radzą w utrzymaniu gatunków.

Należy zauważyć, że na tym etapie naszej krytyki nie postulujemy rozwiązań niemożliwych ewolucyjnie, tj. biologicznie, jakimi byłyby pewne zmiany materiałowe (zastąpienie kostnych zębów stalowymi albo powierzchni stawowych z chrząstki — powierzchniami z teflonowych plastyków). Niepodobna sobie wyobrazić żadnych rekonstrukcji genotypu, które umożliwiłyby organizmowi wytwarzanie teflonu (fluorokarbonu). Natomiast zaprogramowanie w plazmie dziedzicznej organów typu wspomnianej „pompy hemoelektrycznej” zasadniczo przynajmniej byłoby możliwe.

Oportunizm i krótkowzroczność, a raczej ślepota Ewolucji, oznacza w praktyce stosowanie takich rozwiązań, jakie się losowo pojawiają jako pierwsze, i usuwanie ich tylko wtedy, jeśli przypadek stworzy odmienną możliwość. Gdy jednak dane raz rozwiązanie blokuje drogę do wszelkich innych, jakkolwiek byłyby doskonałe i o niebo wydajniejsze, rozwój daną układu zamiera. Tak np. szczęka drapieżców–gadów przez dziesiątki mili nów lat pozostawała układem mechanicznie bardzo prymitywnym; rozwiązanie to „wleczone było” przez wszystkie omal gałęzie gadów, o ile pochodziły od wspólnych przodków; zmianę na lepsze „udało się” przeprowadził dopiero u ssaków (drapieżcę typu wilka), a więc niezmiernie późno. I słusznie zauważali nieraz biologowie, Ewolucja jest konstruktorem pilnym tylko w opracowywaniu rozwiązań bezwzględnie ważnych życiowo, o służą one organizmowi w fazie pełnej żywotności (do rozrodu płciowego) Natomiast wszystko, co nie ma takiego krytycznego znaczenia, zostaje mniej lub bardziej zaniedbane, puszczone na los przypadkowych metamorfoz i najzupełniej ślepych trafów.

Ewolucja nie może oczywiście przewidywać żadnej konsekwencji aktualnego działania, chociażby i wprowadzało ono cały gatunek w ślepą uliczkę rozwoju, a względnie nikła zmiana pozwoliła tego uniknąć. Realizuje to, co możliwe i wygodne natychmiast, nie troszcząc się o resztę. Organizmy większe posiadają większy mózg, w którym ilość neuronów wyprzedza wzrost masy, stąd pozorne zamiłowanie jej do „ortoewolucji”, powolnego, lecz ciągłego powiększania rozmiarów ciała, które jednak okazuje się bardzo często istną pułapką i narzędziem przyszłej zagłady: ani jedna ze starych [gałęzi olbrzymów (gady jurajskie np.) nie przetrwała do dzisiaj. Tak więc Ewolucja jest, przy całym swoim skąpstwie, które ujawnia w dokonywaniu „przeróbek” tylko najniezbędniejszych, konstruktorem najrozrzutniejszym z możliwych.

 

5) Jako konstruktor, jest ona również chaotyczna i nielogiczna. Widać to na przykład po sposobie, jakim rozdziela potencje regeneracyjne wśród gatunków. Organizm nie jest zbudowany na zasadzie technik ludzkich — części zamiennych makroskopowych. Inżynier projektuje tak, aby wymienne były całe bloki urządzeń. Ewolucja projektuje „zasadę części zamiennych mikroskopową”, przejawiającą się nieustannie, bo komórki narządowe (skóry, włosów, mięśni, krwi itp. — oprócz nielicznych, jak neurony) — wciąż ulegają wymianie — przez podział innych komórek; potomne są właśnie „częściami zamiennymi”. Byłaby to zasada doskonała, lepsza od inżynieryjnej, gdyby nie to, że praktyka przeczy jej tak często.

Organizm ludzki zbudowany jest z bilionów komórek; każda z nich zawiera nie tylko tę informację genotypową, jaka jest niezbędna dla wykonywanych przez nią funkcji, lecz informację pełną — tę samą, jaką ma komórka jajowa. Teoretycznie więc byłoby możliwe rozwinięcie komórki błony śluzowej języka (na przykład) w dojrzały ludzki organizm. W praktyce nie jest to możliwe, ponieważ owej informacji nie da się uruchomić. Komórki somatyczne nie mają embriogenetycznej potencji. Prawdę mówiąc, nie bardzo wiemy, czemu tak jest. Być może, odgrywają tu rolę pewne inhibitory (hamulce wzrostu), bo wymaga tego zasada współpracy tkankowej; rakowacenie, dodajmy za najnowszymi pracami, polegać ma na zaniku owych inhibitorów (histonów) w komórkach, które przeszły somatyczną mutację.

W każdym razie wydawałoby się, że wszystkie organizmy, przynajmniej tego samego szczebla rozwoju, winny regenerować mniej więcej tak samo, skoro wszystkie mają dość podobny nadmiar informacji komórkowej. Tak jednak nie jest. Nie ma nawet ścisłego związku między miejscem, zajmowanym przez gatunek w hierarchii ewolucyjnej, a jego możliwościami regeneracyjnymi. Żaba jest bardzo kiepskim regeneratorem, tak niemal marnym, jak człowiek. Otóż jest to nie tylko niekorzystne z osobniczego punktu widzenia, ale i nielogiczne z konstruktorskiego. Zapewne, stan ów wywołały okresie przyczyny w trakcie ewolucji. Ale my nie zajmujemy się teraz poszukiwaniem usprawiedliwień dla jej ułomności, jako stwórcy organicznych systemów. Stan końcowy każdej ewolucyjnej gałęzi, to jest żyjący obecnie „model wprowadzony do „masowej produkcji”, odzwierciedla, z jednej strony, aktualne warunki, jakim winien sprostać, jak i, z drugiej strony, tę miliardoletnią drogę ślepych prób i poszukiwań, jaką przeszli wszyscy jego przodkowie. Na kompromisowości zatem rozwiązań teraźniejszych dodatkowo ciąży bezwładność wszystkich poprzednich konstrukcji, które także były kompromisowe.

 

6) Ewolucja nie kumuluje własnych doświadczeń. Jest ona konstruktorem, zapominającym o minionych osiągnięciach. Za każdym razem musi ich poszukiwać od nowa. Gady dwukrotnie podejmowały inwazję powietrza raz, jak nagoskóre jaszczury, drugi raz, wytworzywszy upierzenie; za każdym razem musiały od nowa wykształcać adaptację do warunków lotu; narządowo–wykonawczą oraz neuralną. Kręgowce opuszczały ocean dla lądu i powracały do wody; i wówczas rozwiązania „akwatyczne” musiały być rozpoczynane od zera. Przekleństwem każdej doskonałej specjalizacji jest to, że przedstawia dostosowanie tylko do warunków aktualnych; im specjalizacja lepsza, tym łatwiej zamiana owych warunków wiedzie do zagłady! A właśnie najlepsze nieraz rozwiązania konstrukcyjne poupychane są w różnych bocznych, skrajnie wyspecjalizowanych liniach. Narząd zmysłowy okularnika reagujący na promienie podczerwone wykrywa różnicę temperatur rzędu 0,001 stopnia. Zmysł elektryczny niektórych ryb reaguje na różnice napięć rzędu 0,01 mikrowolta na milimetr. Organ słuchowy moli (pożeranych przez nietoperze) reaguje na drgania naddźwiękowej echolokacji tych „myszy latających”. Czułość zmysłu dotyku niektórych owadów jest już na granicy odbioru drgań molekularnych. Wiadomo, jak jest rozwinięty narząd powonienia u węchowców, do których należą też pewne owady. Delfiny posiadają system hydrolokacji, ekranem odbiorczym pęku wysyłanych drgań jest zaklęsła część czołowa czaszki, okryta poduszką tłuszczową, działa ona jak reflektor skupiający. Oko ludzkie reaguje na pojedyncze kwanty światła. Kiedy gatunek, który wykształcił takie organy, ginie, wraz z nim przepadają i podobne do wymienionych „wynalazki ewolucji”. Nie wiemy, jak wiele ich zginęło w ciągu minionych milionoleci. Jeśli zaś trwają, to nie ma możliwości upowszechnienia owych „wynalazków” poza obrębem gatunku, rodziny czy odmiany, w której doszło do ich powstania. W efekcie człowiek stary to istota bezzębna, chociaż problem został już, i to dziesiątki razy rozwiązany, za każdym nieco inaczej (u ryb, u rekinów, u gryzoni, itp.).

 

7) Najmniej wiemy o tym, w jaki sposób Ewolucja dokonuje swych „wielkich odkryć”, swoich rewolucji. Ma je bowiem; polegają na stwarzaniu nowych typów. Oczywiście, i tu postępuje stopniowo, bo inaczej nie może. Zarzucimy jej — w tej mierze — najwyższą już przypadkowość; typy powstają nie dzięki adaptacjom ani zmianom starannie przygotowywanym, lecz są wynikiem ciągnień na ewolucyjnej loterii, z tym, że bardzo często głównej wygranej w ogóle brak.

Tyleśmy już mówili o ewolucji genotypów, że to, co przedstawię za G. Simpsonem*, będzie chyba zrozumiałe bez wyjaśnień. W dużych populacjach, pod niskim ciśnieniem selekcyjnym, powstaje rezerwuar genetycznej zmienności utajonej (w zmutowanych recesywnie genotypach). W populacjach małych może natomiast dojść do przypadkowego ustalania nowych typów genetycznych; Simpson nazywa to „ewolucją kwantową” (skok jest jednak mniej rewolucyjny od tego, jaki w swoim czasie postulował Goldschmidt, nazywając wyniki hipotetycznych makrorekonstrukcji genotypowych hopeful monsters — „obiecującymi potworami”). Odbywa się to w ten sposób, że zachodzi skokowe przejście od heterozygotyczności do homozygotyczności mutantów; utajone dotąd cechy nagle się więc manifestują, i to w zakresie sporej ilości genów naraz (tego rodzaju zjawisko musi być niesłychanie rzadkie, powiedzmy, raz lub dwa razy na ćwierć miliarda lat). Izolacja i malenie populacji zachodzi najczęściej podczas gwałtownego wzrostu umieralności, w epokach klęsk i katastrof. Wtedy to spośród milionów ginących wynurzają się sporadycznie radiacje ewolucyjne; nie wyselekcjonowane, nowe, „próbne modele”, powstałe w opisany skokowy sposób, które dopiero dalszy bieg ewolucji poddaje „sprawdzeniu praktycznemu”. Ponieważ metoda Ewolucji jest zawsze losowa, okoliczności, sprzyjające „wielkim wynalazkom”, wcale nie muszą wywoływać ich w sposób konieczny, a chociażby tylko prawdopodobny. Prawda, że wzrost umieralności, że izolacja ułatwia „wynurzenie się” większej liczby fenotypowych mutantów z tajonej dotąd w gametach rezerwy „alarmowej”, ale sama owa rezerwa może się okazać nie tyle ratowniczym wynalazkiem, nową formą ustroju, co zlepkiem bezsensownych i szkodliwych cech Ciśnienie bowiem selekcyjne wcale się nie musi pokrywać kierunkowo z mutacyjnym; ląd może zamieniać się w wyspę, a owady bezskrzydłe, całkiem przypadkowo, zamieniać się będą w uskrzydlone, co ich sytuację jeszcze pogorszy. Jedno jest zupełnie tak samo możliwe, jak drugie; dopiero gdy wektory obu ciśnień, mutacyjnego i selekcyjnego, wskazują w tę samą stronę, możliwy jest prawdziwie znaczny postęp. Ale też to zjawisko, jak pojmujemy teraz, stanowi rzadkość nad rzadkościami. W oczach konstruktora, sytuacja ta równa się takiemu zaopatrywaniu szalup ratunkowych okrętu, aby, po katastrofie, rozbitków oczekiwały niespodzianki, co też mieści się w schowku z „racją żelazną” ich łodzi: słodka woda, czy może kwas solny, albo — puszki z konserwami, czy tylko z kamieniami? I chociaż brzmi to groteskowo, obraz jednak w gruncie rzeczy odpowiada właśnie metodzie Ewolucji, okolicznościom, w jakich dokonuje ona swych dzieł największych.

O tym, że nie mylimy się, świadczy monofiletyczność powstania gadów, płazów, ssaków: powstały bowiem tylko raz jeden, każda z klas raz tylko na przestrzeni wszystkich geologicznych epok. Byłoby bardzo ciekawe znać odpowiedź na pytanie, co by się też stało, gdyby 360 milionów lat temu nie powstały pierwsze kręgowce, czy trzeba by czekać „dalszych sto milionów lat”? Czy też powtórzenie się owej mutacyjnej kreacji byłoby jeszcze mniej prawdopodobne? I czy nie wyeliminował ów wynalazek innej konstrukcji, potencjalnie możliwej?

Są to pytania nierozstrzygalne, bo stało się tak, jak się stało. Co prawda, jakeśmy już mówili o tym, mutacja jest zawsze niemal zmianą jednej organizacji na organizację inną, chociaż często „adaptacyjnie bezsensowną”. Tak więc wysoki poziom uorganizowania genotypu stwarza warunki, w których seria ciągnień losowych, byle bardzo była długa, zjawisko skonstruowania odmiany czy gałęzi bardziej postępowej czyni prawdopodobieństwem niemal dowolnie bliskim jedności. (Przez „postępową” formę rozumiemy taką, która — za J. Huxleyem — nie tylko sama dominuje organizacją nad dotychczasowymi, ale stanowi przejście potencjalne ku dalszym etapom rozwoju). Na przykładzie „wielkich przewrotów” ewolucyjnych starliśmy się znowu, i to drastycznie, z dowodną statystycznością naturalnego konstruktorstwa. Organizm to pokaz, jak układ pewny można zbudować z elementów niepewnych. Ewolucja zaś to demonstracja, w jaki sposób grą hazardową z dwiema stawkami — życiem i śmiercią — można uprawiać inżynierię.

 

8) Przechodzimy do coraz bardziej fundamentalnej krytyki Ewolucji; należy więc, marginesowo, skrytykować jej metodę sterowania. Sprzężenie zwrotne, kontrolujące genotypy, jest raczej uchybowe, przez co właśnie przychodzi do „zaśmiecenia genetycznego” populacji. Głównym naszym tematem będzie teraz jedno z założeń wstępnych i najbardziej fundamentalnych: wybór budulca. Retortami i laboratoriami Ewolucji są malutkie kropelki białkowe kleju. Z nich wytwarza ona szkielety, krew, gruczoły, mięśnie, futra, tarcze pancerne, mózgi, nektary i jady. Wąskość „produkcyjnego gardła” zdumiewa w zestawieniu z uniwersalizmem produktów końcowych. Jeśli jednak nie zważać na restrykcje narzucone przez zimną technologię, jeśli nie doskonałość kunsztu akrobacji molekularnej i chemicznej nas interesuje, ale raczej ogólne zasady racjonalnego projektowania rozwiązań optymalnych, otwiera się obszar zarzutów.

Jak można sobie wyobrazić organizm doskonalszy od biologicznego? Jako system zdeterminowany — podobny w tym sensie ‘do ustrojów naturalnych — może to być układ, który ultrastabilność podtrzymuje dzięki dopływowi energii najwydatniejszej, więc, oczywiście, jądrowej. Rezygnacja z utleniania czyni zbędnymi układy krwionośny, krwiotwórczy, płuca, całą piramidę regulatorów oddychania centralnych, całą aparaturę chemiczną enzymów tkankowych, przemianę mięśniową oraz stosunkowo nikłą i drastycznie limitowaną moc mięśni. Energia jądrowa pozwala na przekształcenia uniwersalne; ośrodek płynny nie jest jej nośnikiem najlepszym (ale i taki homeostat można by zbudować, gdyby komuś szczególnie na tym zależało); otwiera ona szansę różnorodnego działania na odległość już to przewodowe i dyskretnie („kable”, jak nerwy), już to analogowo (wówczas np. promieniowanie staje się odpowiednikiem analogowych informacjonośnych związków hormonalnych); promieniowania i pola siłowe mogą działać także na otoczenie homeostatu, a wówczas prymitywna mechanika kończyn z ich łożyskami ślizgowymi staje się zbędna. Zapewne — organizm „na energię jądrową” jest w naszych oczach tyleż groteskowy, co nonsensowny — ale warto uzmysłowić sobie, jak wygląda sytuacja człowieka w startującym pojeździe kosmicznym, aby właściwie ocenić całą kruchość i wąskość rozwiązania ewolucyjnego. Przy wzmożonej grawitacji ciało, składające się głównie z płynów, podlega gwałtownym przeciążeniom hydrodynamicznym — zawodzi serce, w tkankach już to brak krwi, już to rozrywa ona naczynia, powstają wysięki i obrzęki, mózg przestaje działać po krótkiej chwili, gdy ustaje dopływ tlenu, i nawet kostny szkielet okazuje się wówczas konstrukcją zbyt słabą, aby oprzeć się działającym siłom. Człowiek jest dzisiaj najbardziej zawodnym elementem u stworzonych przez siebie maszyn, jak również najsłabszym —mechanicznie — ogniwem uruchomionych procesów.

MNAle nawet rezygnacja z energii jądrowej, pól siłowych itp., nie prowadzi nas w sposób konieczny z powrotem ku rozwiązaniom biologicznym. System doskonalszy od biologicznego to taki, który posiada o jeden więcej stopień swobody — w zakresie materiałowym. Którego kształt ani funkcja nie są predeterminowane. Który wytwarza wedle potrzeby narząd odbiorczy lub efektor, nowy zmysł lub nową kończynę, albo nowy sposób poruszania się. Który, jednym słowem, dokonuje bezpośrednio, dzięki władzy nad swoją „somą” tego, co my sami robimy okólnie, technologiami, za pośrednictwem regulatorów drugiego stopnia, tj. mózgów.

Okólność naszego działania można by jednak wyeliminować; jeśli się ma trzy miliardy lat czasu, można zgłębić takie tajemnice materii, aby stała się zbędna.

Problem budulca można rozpatrywać dwojako: pod kątem przystosowania doraźnego organizmów w Przyrodzie, i wówczas rozwiązanie przyjęte przez Ewolucję ma wiele stron dodatnich. Albo też, pod kątem potencji prospektywnych — a wtedy na plan pierwszy wysuwają się wszystkie jego ograniczenia. Najdonioślejsze dla nas jest ograniczenie w czasie. Jeśli się ma do dyspozycji miliardolecia, można skonstruować prawie–nieśmiertelność, oczywiście, gdy komuś na tym zależy. Dla Ewolucji była to sprawa zupełnie obojętna.

Dlaczego omawiamy problem starzenia się i śmierci w ustępie poświęconym mankamentom budulca? Czy nie jest to raczej sprawa organizacji tego budulca? Sami mówiliśmy przecież o tym, że protoplazma jest, potencjalnie przynajmniej, nieśmiertelna. Jest ona nieustannie samoodnawiającym ładem — przynajmniej więc w samej zasadzie jej konstrukcji nie tkwi konieczność ustania procesów, wywołanego ich rozsypką. Sprawa jest trudna. Jeśli mamy jakieś pojęcie o tym, co zachodzi w organizmie w ciągu sekund lub godzin, to o prawidłowościach, jakim podlega on w czasie, obliczanych latami, nie wiemy prawie nic. Tę naszą ignorancję przesłaniają wcale skutecznie takie terminy, jak „wzrost”, „dojrzewanie”, „starzenie się”, ale są jedynie na poły przenośne, mgliste nazwy stanów, a nie opisy ścisłe.

Ewolucja jest konstruktorem–statystykiem; to już wiemy. Ale uśredniająca, statystyczna jest nie tylko jej działalność gatunkotwórcza; na podobnych zasadach opiera się też budowa pojedynczego ustroju. Embriogenezs jest sterowanym ogólnie wybuchem chemicznym, o precyzji teleologicznej, podszytej znowu statystyką, ponieważ geny nie determinują ani ilości, ani położenia poszczególnych komórek „produktu końcowego”. Żadna z osobna wzięta tkanka wielotkankowca nie musi umrzeć, można takie tkanki hodować latami na sztucznych podłożach, wyosobnione z organizmu. On jest zatem śmiertelny, jako całość, nie jego elementy składowe. Jak to rozumieć? Organizm podlega w ciągu życia rozmaitym zakłóceniom i urazom. Jedne z nich pochodzą z otoczenia, innych on sam jest mimowolnym sprawcą. To ostatnie jest bodaj najistotniejsze. Mówiliśmy już o pewnych rodzajach wykolejania się procesów życiowych, które w ustroju złożonym są przede wszystkim utratą równowagi korelacyjnej. Jest ich kilka głównych typów: stabilizacja patologicznej równowagi, jak przy wrzodzie żołądka, błędne koło, jak przy nadciśnieniu, wreszcie reakcje lawinowe (epilepsja). Do reakcji takich można też zaliczyć, cum grano salis, nowotworzenie. Wszystkie takie zakłócenia przyspieszają starzenie się, ale zachodzi ono też u osobników, nigdy niemal nie chorujących. Możemy się domyślać, że starość to skutek statystycznej natury procesów życiowych, której bardzo prymitywnym obrazem jest strzał ładunkiem śrutu. Bez względu na to, jaka jest precyzja wykonania lufy, śruciny rozchodzą się coraz bardziej, w miarę jak powiększa się przebyta przez nie droga. Starzenie się, to podobny rozrzut procesów i wywołane nim stopniowo wychodzenie ich spod centralnej kontroli. A gdy ów rozrzut osiągnie wartość krytyczną, kiedy wyczerpią się rezerwy wszystkich aparatur kompensujących, następuje śmierć.

Otóż możemy podejrzewać, że ta statystyka, która jest niezawodna jako wstępnie przyjęta zasada wyniknięcia płynnej równowagi (Fliessgleichgewicht F. Bertalanffy’ego), dopóki budowane z zaakceptowanych tak elementów organizmy są proste, zawodzi, kiedy przekroczymy określoną granicę złożoności. Komórka jest, w takim ujęciu, tworem doskonalszym od wielokomórkowca, jakkolwiek by to paradoksalnie brzmiało. Musimy jednak zrozumieć, że mówiąc tak, używamy całkiem innego języka, czy też — zajmujemy się zupełnie innymi sprawami od tych, na jakie zważała Ewolucja. Śmierć jest jej konsekwencją wielokrotną, jako skutek ciągłej zmiany, jako wynik rosnącej specjalizacji, jako rezultat wreszcie wszczęcia działań na takim, a nie innym materiale — jedynym, jaki był możliwy do stworzenia.

W rzeczywistości więc nie uprawiamy paszkwilu na tę naszą bezosobową stwórczynię serio. Idzie nam o coś zupełnie innego. Pragniemy być po prostu doskonalszymi od niej konstruktorami i musimy uważać, abyśmy nie popełnili jej „błędów”.


Rekonstrukcja człowieka

 

Problemem naszym ma być udoskonalenie człowieka. Możliwe tu są podejścia rozmaite. Można uprawiać „inżynierię zachowawczą”, którą jest po prostu medycyna. Wówczas norma, to jest przeciętność zdrowia, stanowi wzorzec; działanie podejmuje się po to, by każdy człowiek mógł osiągnąć taki stan.

Zakres owych działań powoli się zwiększa. Może nawet obejmować wbudowywanie w organizm parametrów genotypowo nie przewidzianych (jak wspomniana możliwość hibernacji). W płynny sposób da się przejść do protetyki coraz bardziej uniwersalnej. Do pokonywania sił obronnych ustroju, w celach skutecznej transplantacji narządów. Wszystko to jest już teraz realizowane. Dokonano już pierwszych przeszczepów nerki i płuca; dokonuje się ich, w zakresie daleko szerszym, na zwierzętach („rezerwowe” serce). W USA istnieje nawet towarzystwo „wymiennych narządów”, koordynujące i popierające badania naukowego tego zakresu. Można więc stopniowo przestrajać organizm, zmieniając go w poszczególnych funkcjach i parametrach. Proces ten prawdopodobodobnie będzie szedł dwutorowo, pod naciskiem obiektywnych konieczności — i technologicznych możliwości: jako przemiany biologiczne (usuwanie przeszczepami defektów, kalectw itp.) oraz jako przemiany protezujące (gdy proteza mechaniczna, „martwa”, jest lepszym dla użytkownika rozwiązaniem od transplantatu naturalnego). Protezowanie, w takim zakresie, nie może, rozumie się, wieść do jakiejś „robotyzacji” człowieka. Cała ta faza, która obejmuje zapewne nie tylko koniec bieżącego stulecia, ale i początki następnego, zakłada akceptację podstawowego „planu konstrukcyjnego”, danego przez Naturę. A więc nie naruszone pozostają wytyczne budowy cielesnej, narządowej, czynnościowej, zarówno z przyjętym wstępnie założeniem białkowego budulca — jak i z jego nieuchronnymi konsekwencjami — starości i śmierci.

Przedłużenie życia poza granicę stu lat statystyczne (tj. aby taka była przeciętna długość osobniczego trwania) — bez ingerencji w informację dziedziczną — wydaje mi się nierealne. Mnóstwo mędrców wyjawiało nam już nieraz, że „właściwie”, że „w zasadzie” człowiek mógłby dożyć i 140–160 lat, skoro tak długo żyją jednostki; jest to argumentacja godna tej, która powiada, że „właściwie” każdy z nas mógłby być Beethovenem lub Newtonem, bo przecież i oni byli ludźmi. Oczywiście, że byli ludźmi, jak są nimi długowi ni górale kaukascy, ale doprawdy z tego dla przeciętnej populacyjnej nic wynika. Długowieczność jest wynikiem działania określonych genów; kto je upowszechni w populacji, uczyni ją długowieczną statystycznie. Jakikolwiek program bardziej radykalnych zmian jest dzisiaj i będzie w ciągu najbliższego stulecia zapewne nie do urzeczywistnienia. Można jedynie zastanawiać nad programem rewolucyjnej inżynierii organizmu. Prymitywnie, w s naiwny, ale jest to możliwe.

Trzeba się najpierw zastanowić nad tym, czego chcemy.

Podobnie jak istnieje skala wielkości przestrzennych, od chmur metagalaktycznych, przez galaktyki, lokalne układy gwiazd, systemy planetarni planety, ich biosfery, organizmy żywe, wirusy, molekuły, atomy aż d kwantów, tak samo też istnieje skala wielkości czasu, tj. jego różnych rozciągłości. Pokrywa się ona z grubsza z tamtą. Najdłuższe jest trwanie indywidualne galaktyk (kilkanaście miliardów lat), kolejno idą gwiazdy) (około 10 miliardów), ewolucja biologiczna jako całość — cztery do sześciu] miliardów, epoki geologiczne (150–50 milionów lat), sekwoja (około 6000 lat), człowiek (około 70 lat), mucha–jednodniówka, bakteria (około 15 minut), wirus, cis–benzen, mezon (milionowe części sekundy).

Konstrukcja istoty rozumnej o trwałości indywidualnej dorównującej rozciągłości epok geologicznych wydaje się zupełnie nierealna. Musiałaby taka osoba albo mieć rozmiary planetoidy — albo zrezygnować z ciągłej pamięci zdarzeń przeszłych. Oczywiście, tu pole dla groteskowych konceptów rodem z S–F: istoty długowieczne, które swą pamięć mają ulokowaną np. w gigantycznych „mnemotronach” podziemnych miasta i połączone są z rezerwuarami swych młodzieńczych wspomnień sprzed 100 000 lat falami j ultrakrótkimi. Tak więc granicą realnego podniesienia długowieczności ] wydaje się pułap biologiczny (sekwoja, zatem około 6 000 lat). Jaka powinna \ być najistotniejsza cecha tej istoty długowiecznej? Długowieczność nie może ‘ być wszak celem w sobie. Musi ona czemuś służyć. Bez wątpienia nikt, ani dzisiaj, ani za sto tysięcy lat, nie może w sposób pewny przewidzieć przyszłości. Podstawową zatem cechą „udoskonalonego modelu” winna być jego potencja autoewolucyjna. Aby mógł się przekształcić w taki sposób i w takim kierunku, jaki będzie mu odpowiadał, ze względu na tworzoną przezeń cywilizację.

Co więc jest możliwe? Prawie wszystko, z jednym bodaj wyjątkiem. Ludzie, zmówiwszy się, mogliby w pewnym dniu kilkudziesięciotysięcznego roku postanowić: „Dość — niech będzie tak, jak jest teraz, niechaj tak już odtąd będzie zawsze. Nie zmieniajmy, nie wynajdujmy, nie odkrywajmy niczego, ponieważ lepiej niż teraz być nie może, a gdyby nawet mogło, nie chcemy tego”.

Aczkolwiek wiele mało prawdopodobnych rzeczy przedstawiłem w tej książce, ta wydaje mi się najbardziej nieprawdopodobna ze wszystkich.


Cyborgizacja

 

Na osobne rozpatrzenie zasługuje jedyny znany dzisiaj, na razie czysto hipotetyczny, projekt rekonstrukcji człowieka, wysunięty przez uczonych. Nie jest to projekt przebudowy uniwersalnej. Służyć ma określonym celom, to jest adaptacji do kosmosu jako „niszy ekologicznej”. Jest to tak zwany cyborg (skrót słów „cybernetyczna organizacja”). „Cyborgizacja” polega na usunięciu układu trawiennego (prócz wątroby, ewentualnie i elementów trzustki), przez co zbędne stają się też szczęki, ich mięśnie i zęby. Jeśli kwestia mowy ma zostać rozwiązana „kosmicznie” —przez stałe stosowanie łączności radiowej — znikają i usta. Cyborg posiada szereg elementów biologicznych, jak szkielet, mięśnie, skórę, mózg, ale ów mózg zawiaduje mimowolnymi dotąd funkcjami ciała świadomie, ponieważ w kluczowych punktach organizmu znajdują się pompy osmotyczne, wstrzykujące w razie potrzeby już to substancje odżywcze, już to ciała aktywizujące — leki, hormony, preparaty bodźcze — bądź, na odwrót, obniżające przemianę podstawową, a nawet wprowadzające w stan hibernowania. Taka gotowość autohibernacyjna może poważnie zwiększyć przeżywalność w wypadku jakiejś awarii lub tp. Układ krwionośny pomyślany jest dość „tradycyjnie”, chociaż cyborg może pracować w warunkach beztlenowych (ale naturalnie z zapasem tlenu w skafandrze). Cyborg nie jest już częściowo sprotezowanym człowiekiem. Jest człowiekiem częściowo przekonstruowanym, ze sztucznym układem odżywczo—regulacyjnym, umożliwiającym przystosowanie do rozmaitych kosmicznych środowisk. Nie jest on jednak zrekonstruowany mikroskopowo, tj. żywe komórki nadal są podstawowym budulcem jego ciała, poza tym zaś, rzecz oczywista, zmiany jego organizacji nie mogą się przenosić na potomstwo (nie są dziedziczne). Należy sądzić, że „cyborgizację” dałoby się uzupełnić rekonstrukcjami biochemizmu. Tak np. byłoby bardzo pożądane uniezależnienie organizmu od nieustannej dostawy tlenu. Ale to jest już droga ku owej „rewolucji biochemicznej”, o której mówiliśmy poprzednio. Zresztą wiadomo, że nie trzeba aż szukać ciał, magazynujących tlen skuteczniej od hemoglobiny, aby można obywać się bez dostępu powietrza względnie długo. Wieloryby mogą nurkować ponad godzinę, co nie jest tylko wynikiem zwiększenia pojemności płuc. Mają specjalnie po temu rozwinięte układy narządowe. Więc i „od wieloryba” można by ewentualnie zapożyczyć elementy reorganizacji.

Nie wypowiedzieliśmy się na temat, czy cyborgizacja jest pożądana, czy nie. Przytaczamy ją tylko dla ukazania, że problemy tego rodzaju są w ogóle przez fachowców poruszane. Należy jednak zauważyć, że projekt byłby dzisiaj najprawdopodobniej nie do urzeczywistnienia (nie tylko ze względu na etykę lekarską, ale i na nikłą szansę przeżycia tak zmasowanej chirurgicznej interwencji i zastąpienia tak ważnych życiowo narządów różnymi „pompami osmotycznymi”), chociaż w gruncie rzeczy jest dość „konserwatywny”.

Główne źródło krytycyzmu stanowi nie tyle zestaw proponowanych operacji, ile końcowy ich rezultat. Cyborg, wbrew pozorom, wcale nie jest człowiekiem bardziej uniwersalnym od „modelu dotychczasowego”. Jest OB „wariantem kosmicznym”, nie dla wszystkich bynajmniej ciał niebieskie! ale raczej dla podobnych do Księżyca czy Marsa. Tak więc zabiegi dość okrutne dają w istocie rezultat raczej nędzny pod względem adaptacyjnego uniwersalizmu; największy zaś sprzeciw budzi sama koncepcja „degeneralizowania człowieka”, tj. wytworzenia rozmaitych typów ludzkich, mniej więcej na podobieństwo i obraz różnych rodzajów mrówek. Może projektantom analogie te nie przychodziły na myśl, ale narzucają się nawet nieuprzedzonemu. Hibernować można i bez pomp osmotycznych, a tak samo dałoby się zaopatrzyć kosmonautę w szereg mikroprzystawek (samoczynnych bądź przezeń uruchamianych) dla wprowadzania do jego ustroju odpowiednich preparatów. Już to ów cyborgowski brak ust wydaje mi się efektem przeznaczonym dla szerokiej publiczności raczej aniżeli dla fachowców–biologów. Przyznaję lojalnie, ze łatwiej się w materii takich czy podobnych rekonstrukcji poruszać wśród ogólników o przyszłej ich konieczności, aniżeli zaproponować, choćby technicznie dziś nierealne, ale przekonujące konstruktorsko usprawnienia. Na razie chemia przemysłowa jest beznadziejnie w tyle za biochemią ustrojów, a inżynieria molekularna wraz z jej zastosowaniami informacjonośnymi tkwi w powijakach wobec molekularnej technologii organizmów. Jednakże te środki, jakich imała się — by tak rzec — „z rozpaczy” raczej, niż z wyboru, Ewolucja, zacieśniona obiektywnymi warunkami do „zimnej technologii” i do bardzo wąskiego zestawu pierwiastków (praktycznie—tylko węgiel, wodór, tlen, siarka, azot, fosfor oraz śladowo żelazo, kobalt i inne metale), nie mogą przedstawiać osiągnięcia szczytowego w konstruowaniu homeostatów na miarę Kosmosu. Gdy chemia syntez, teoria informacji, ogólna teoria układów pójdą daleko naprzód, ciało ludzkie okaże się w takim świecie jego elementem najmniej doskonałym. Wiedza ludzka przewyższy biologiczną, nagromadzoną w żywych ustrojach. Wówczas plany, poczytywane dziś za kalumnie na perfekcję rozwiązań ewolucyjnych, zostaną urzeczywistnione.


Maszyna autoewolucyjna

 

Ponieważ możliwość przebudowy człowieka wydaje się nam czymś niesamowitym, skłonni jesteśmy sądzić, że niesamowite muszą być też stosowane w tym celu techniki. Chirurgia mózgów, „butelkowane płody, rozwijające się pod kontrolą inżynierii genetycznej” — oto obrazy, jakie nam w tej sferze przedstawia literatura fantastyczna. Tymczasem stosowane zabiegi mogą być zgoła niedostrzegalne. Od paru lat pracują w USA — nieliczne na razie — maszyny cyfrowe, zaprogramowane dla kojarzenia małżeństw. „Maszynowy swat” dobiera pary, najlepiej odpowiadające sobie pod względem cielesnym i umysłowym. Według (szczupłych na razie) danych trwałość kojarzonych maszynowo związków jest około dwa razy większa niż małżeństw zwykłych. W ostatnich latach obniżył się w Stanach wiek przeciętny zawierania małżeństw, a zawarte rozpadają się w 50 procentach do 5 lat, mnóstwo jest więc dwudziestolatków—rozwodników i dzieci pozbawionych normalnej opieki rodzicielskiej. Nie wynaleziono jeszcze sposobów zastąpienia czymkolwiek rodzinnej formy wychowania, bo nie jest to tylko kwestia środków na utrzymanie odpowiednich instytucji (ochronek); uczucia rodzicielskie nie mają namiastki, a ich wczesny i trwały brak powoduje nie to, że ujemne doznania dzieciństwa, lecz powstawanie nieodwracalnych czasem defektów w sferze tak zwanej uczuciowości wy ższe j. Tak przedstawia się stan aktualny. Ludzie tworzą pary metodą losową, którą można by nazwać brownowską — łączą się bowiem po pewnej ilości przelotnych kontaktów, gdy trafią wreszcie na partnerów „właściwych”, co poświadczać zdaje się wzajemna atrakcja. Lecz rozeznanie to jest właśnie dosyć losowe (skoro w 50% okazuje się błędne). „Maszynowe swaty” odmieniają ten stan rzeczy. Odpowiednie badania dostarczają maszynie wiedzy o psychosomatycznych cechach kandydatów, po czym wyszukuje ona pary, optymalnie sobie odpowiadające. Maszyna nie likwiduje swobody wyboru, bo nie do jednego tylko kandydata prowadzi. Działając probabilistycznie, proponuje wybór w obrębie odsianej grupy, mieszczącej się w przedziale ufności, przy czym grupy takie może maszyna selekcjonować spośród milionów ludzi, podczas gdy jednostka, postępująca tradycyjnie, „metodą losową”, może zetknąć się w życiu najwyżej z ich paroma setkami. Tak więc maszyna realizuje właściwie stary mit o mężczyznach i kobietach, przeznaczonych sobie, ale daremnie się szukających. Rzecz tylko w tym, aby świadomość społeczna fakt ów trwale przyswoiła. Co prawda są to argumenty racjonalne tylko. Maszyna poszerza możliwości wyboru, lecz czyni to w upośrednieniu, ponad głową osobnika, odbierając mu prawo do błędów i cierpień, wszelkich w ogóle przypadłości pożycia, lecz ktoś może właśnie takich przypadłości łaknąć, a przynajmniej życzyć sobie prawa do ryzyka. Panuje wprawdzie przekonanie, że zawiera się małżeństwo po to, aby w nim trwać, lecz ktoś właśnie woli może przeżyć nawet fatalnie zakończoną perypetię z lekkomyślnie wybranym partnerem, aniżeli żyć „długo i szczęśliwie” w harmonijnym stadle. Jednakże w uśrednieniu masowym korzyści kojarzenia małżeństw z pozycji „wiedzy lepszej”, jaką dysponuje maszyna, tak znacznie przeważają nad mankamentami, że technika podobna ma znaczne szansę upowszechnienia. Gdy nabierze cech normy kulturowej, małżeństwo, odradzane przez „maszynowego swata’’, będzie może rodzajem owocu zakazanego i przez to kuszącego, społeczeństwo zaś otoczy je aurą podobną do tej, jaka dawniej towarzyszyła np. mezaliansom. Zresztą może być i tak, że podobny „krok desperacki” będzie uznawany w pewnych kręgach za „wyraz szczególnej odwagi”, jako „wyzywanie niebezpieczeństwa”.

„Maszynowe swaty” mogą mieć bardzo poważne konsekwencje dla naszego gatunku. Gdy odszyfrowane zostaną osobnicze repertuary genotypowe i wprowadzone, obok ustalonych „osobowościowych profilów psychosomatycznych”, do maszynowej pamięci, zadaniem swata będzie dobór, przystosowujący nie tylko osoby do osób, lecz także genotypy do genotypów. Selekcja biec będzie dwustopniowo. Najpierw maszyna wydzieli klasę partnerów, co sobie psychosomatycznie odpowiadają, a potem podda ją odsiewowi drugiego stopnia, odrzucając takich kandydatów, którzy mogliby dać początek z prawdopodobieństwem istotnym dzieciom z pewnych względów nie pożądanym. Na przykład ułomnym, co bezopornie aprobujemy, albo obdarzonym niską inteligencją bądź osobowościowe niezrównoważonym —co budzi już, przynajmniej dziś, niejakie zastrzeżenia. Postępowanie to wydaje się pożądane — jako stabilizacja i ochrona substancji dziedzicznej gatunku — zwłaszcza w epoce, która zwiększa w środowisku cywilizacyjnym stężenie ciał mutagennych. Od stabilizowania genotypów populacji niedaleko do kierowania ich dalszym rozwojem. W ten sposób wkraczamy w strefę takiej kontroli planowanej, która stanowi płynne przejście ku sterowaniu ewolucją gatunku. Gdyż dobierać genotypy do genotypów, to tyle co ewolucją gatunku kierować. Podobna technika wydaje się najmniej drastyczna z możliwych, jako niedostrzegalna właściwie, lecz przez to właśnie stwarza drażliwy problem moralny. Zgodnie z dyrektywami naszej kultury, społeczeństwo winno być informowane o wszystkich, doniosłych przemianach — a taką byłby przecież jakiś (powiedzmy) „tysiącletni plan autoewolucyjny”. Udzielić jednak informacji, nie podając zarazem argumentów, to narzucać plany, a nie perswadować potrzebę ich realizacji. Argumenty wszakże będą mogli właściwie zrozumieć tylko posiadacze rozległej wiedzy w zakresie medycyny, teorii ewolucji, antropologii i genetyki populacyjnej. Inną osobliwością takiej techniki jest ta, że uzyskiwać rezultaty można w niej niejednakowo w obrębie rozmaitych cech ustrojowych. Stosunkowo łatwo byłoby np. —dążyć do upowszechnienia wysokiej inteligencji, jako naturalnej cechy gatunkowej, choć nie tak częstotliwej, jak można by sobie tego życzyć. Miałoby to ogromne znaczenie w epoce współzawodnictwa umysłowego ludzi i maszyn. Najtrudniej za to byłoby dokonać — ukazaną metodą — głębokich zmian ustrojowej organizacji. O jakie zmiany może chodzić? Zgodnie z niektórymi badaczami (takimi jak Dart na przykład) jesteśmy „obciążeni dziedzicznie”, a raczej odznaczamy się „asymetrią” dążeń do „zła” i „dobra” przez to, że przodkowie nasi praktykowali przez trzy czwarte miliona lat kanibalizm, i to nie jako wyjątek w obliczu śmierci głodowej (tak czynią „zwykłe” drapieżcę), lecz jako regułę. Wiedziało się o tym od dość dawna, lecz obecnie uważany bywa kanibalizm za czynnik twórczy antropogenezy, a tak się to wykłada, że roślinożerność nie maksymalizuje „rozumności”, banany bowiem nie zmuszają ich poszukiwacza do rozwijania taktyki, oceniającej błyskawicznie sytuacje, ani strategii podejść, walk i pościgów. Stąd też antropoidy zatrzymały się niejako w rozwoju, najszybciej zaś postępował w nim praczłowiek dlatego, ponieważ polował na równych sobie bystrością. Dzięki temu dochodziło do najenergiczniejszego odsiewu „nierozgarniętych”, bo ograniczony umysłowo roślinożerca najwyżej pości czasem, natomiast nie dość bystry łowca podobnych sobie musi rychło zginąć. Miał być tedy „wynalazek kanibalistyczny” — akceleratorem postępu umysłowego, jako iż walka wewnątrzgatunkowa zapewnia przeżywalność tylko posiadaczom najsprawniejszego rozumu, takiego więc, co przejawia uniwersalny transfer doświadczeń życiowych na nowe sytuacje. Zresztą był australopitek, o którym tu mowa, wszystkożercą; jakoż poprzedziła kulturę kamienia — osteodontokeratyczna, bo pierwszą, przypadkowo — przez ogryzienie — powstającą pałką jest kość długa, toteż pierwszymi jego naczyniami i maczugami były czaszki i kości, opar krwi zaś asystował powstawaniu pierwszych obrzędów. Nie wynika z tego, jakobyśmy odziedziczyli po przodkach „archetypy zbrodniczości”, bo nie dziedziczy się w pozapopędowej dziedzinie żadnej gotowej wiedzy, nakierowującej do określonych działań, i to jedynie można przypuszczać, że mózg i ciało człowieka ukształtowały sytuacje nieustannej walki. Daje też do myślenia „asymetria” dziejów kulturowych, w których dobre zamierzenia obracały się dość regularnie w zło, ale do metamorfozy odwrotnej jakoś nie dochodziło, a w jednej z panujących religii do dziś gra rolę szczególną krew — w doktrynie transsubstancjacji. Jeśli podobne hipotezy mają za sobą racje rzeczowe i głąb mózgów naszych ukształtowała się pod wpływem zjawisk owych setek tysięcy lat, niejaka melioracja gatunku — w zakresie tak zwanej „asymetrii’’ — byłaby prawdziwie pożądana. Oczywiście nie wiemy dzisiaj, ani c z y trzeba ją przedsięwziąć, ani też, j a k należałoby to robić; „maszyny matrymonialne” mogłyby do pożądanego stanu doprowadzić dopiero po wielu tysiącach lat, bo one mogą tylko maksymalizować tempa ewolucji naturalne, bardzo powolne przecież. W obliczu zatem tak rewolucyjnego planu trzeba by się może uciec do technik „przyśpieszonych”. W każdym razie jest tak, że o oporach, jakie budzi w nas perspektywa przemian autoewolucyjnych, decydują nie tylko ich rozmiary, lecz i samo ustopniowanie płynne przejść ku nim. „Przykrawanie mózgów i ciał” budzi odrazę, natomiast „maszynowe poradnictwo małżeńskie” wydaje się zabiegiem dość niewinnym — a jednak są to tylko drogi rozmaitej długości, mogące wieść do analogicznych rezultatów.


Zjawiska pozazmysłowe

 

Wielu istotnych problemów nie tknęliśmy w ogóle w tej książce; liczne potraktowaliśmy bardziej pobieżnie, aniżeli na to zasługiwały. Jeśli u jej końca wspomnimy o telepatii i pokrewnych zjawiskach pozazmysłowych, to aby uniknąć zarzutu, że poświęcając tyle uwagi sprawom przyszłego świata, z taką nieustępliwością mechanizowaliśmy problemy ducha, aż popadliśmy w ślepotę. Skoro bowiem telepatia już dzisiaj wzbudza tak znaczne zainteresowanie, i to nawet w niektórych środowiskach naukowców, czy nie jest wysoce prawdopodobne, że dokładniejsze jej poznanie doprowadzi do radykalnej zmiany naszych poglądów fizykalnych, a być może nawet, zjawiska tego typu staną się dostępne zabiegom konstruktorskim? Jeśli człowiek może być telepatą i jeśli mózg elektronowy może być pełnowartościowym zastępcą człowieka, to prosty stąd wniosek, że i taki mózg, byle właściwie zbudowany, przejawi zdolność poznania pozazmysłowego. Stąd już prosta droga do przedstawiania rozmaitych nowych technik przesyłu informacji „kanałami telepatycznymi”, do bezludnych „telepatronów”, „telekinetorów”, jak również do cybernetycznego jasnowidzenia.

Znam dość dokładnie literaturę, poświęconą zjawiskom ESP (Extra–Sensory Perception, postrzeganie pozazmysłowe). Argumenty, wysuwane przeciwko wynikom badań takich uczonych, jak Rhine czy Soal, a zebrane w kostycznej, lecz inteligentnie napisanej książce G. Spencera Browna*, przemawiają mi dosyć do przekonania. Jak wiadomo, fenomeny lat dziewięćsetnych naszego stulecia, z takim przejęciem badane przez ówczesny świat naukowy, zachodzące pod obecność „mediów spirytystycznych”, ustały mniej więcej wtedy, gdy wprowadzono urządzenia podczerwone, pozwalające na obserwację wszystkiego, co się dzieje w najlepiej zaciemnionym pokoju. Widocznie „spirity” lękają się nie tylko ciemności, ale i podczerwonych lornetek.

Zjawiska badane przez Rhine’a i Soala nie mają nic wspólnego z „duchami”. Jako telepatia oznaczają przekazywanie informacji z umysłu do umysłu bez pośrednictwa kanałów materialnych (zmysłowych). Jako kryptestezja oznaczają uzyskiwanie informacji przez umysł z przedmiotów materialnych dowolnie ukrytych, osłoniętych i odległych, także bez pośrednictwa zmysłów. Jako psychokineza (PK) oznaczają manipulowanie przestrzenne obiektami materialnymi dzięki wysiłkowi czysto umysłowemu — znów bez materialnego efektora. Jako jasnowidzenie wreszcie oznaczają przewidywanie stanów przyszłych zjawisk materialnych bez posługiwania się wnioskowaniem ze znanych przesłanek („spojrzenie duchem w przyszłość”). Badania takie, zwłaszcza prowadzone w laboratorium Rhine’a, dostarczyły olbrzymiego materiału statystycznego.

Warunki kontroli są surowe, wyniki statystycznie wcale ważkie, w przypadkach telepatii używa się najczęściej tak zwanych kart Zenera, w przypadku psychokinezy — maszynki, rzucającej kośćmi do gry; eksperymentujący usiłuje powiększyć lub zmniejszyć ilość wypadających oczek.

Spencer Brown atakuje metody statystyczne, powiadając, że w długich seriach losowych mogą się powtarzać pewne mało prawdopodobne sekwencje wyników i to z tym większym prawdopodobieństwem, im dłuższa będzie seria. Znane są takie zjawiska, jako tak zwane „passy szczęścia” (i pecha), wszystkim uprawiającym gry hazardowe. Brown uważa, że za sprawą czystego przypadku może dochodzić, w trakcie kontynuowania długich serii losowych, do rozbudowania się dowolnie prawie wielkiego odchylenia od średniej przeciętnej wyników. W samej rzeczy popiera tę tezę fakt, znany wszystkim, którzy zajmowali się układaniem tak zwanych tablic liczb losowych: nieraz aparatura, mająca produkować takie liczby z najzupełniej chaotycznym rozrzutem, produkuje serię dziesięciu, albo i stu zer pod rząd; oczywiście może to dotyczyć dowolnej cyfry. Otóż jest to właśnie wynik przypadku; techniki statystyczne, używane w eksperymentach przez uczonych, nigdy nie są „puste”, ponieważ wypełnia je (to znaczy, ich formuły) materialna treść zjawisk. Natomiast długotrwałe obserwowanie losowych serii całkiem pustych, czyli pozbawionych związków z jakimikolwiek materialnymi zjawiskami, może właśnie prowadzić do powstawania bardzo osobliwych z pozoru odchyleń, których nieistotność, tj. akcydentalność, wykazać można przez to, że takie odchylenia nie są powtarzalne, ale po pewnym czasie „same” rozmazują się i giną, za czym dalsze wyniki znów przez bardzo długi czas oscylują nieznacznie tylko wokół oczekiwanej przeciętnej statystycznej. Tak więc jeśli oczekujemy zjawiska, które nie zachodzi, używając w doświadczeniu serii losowej, w rzeczywistości notujemy po prostu zachowanie owej serii, oderwanej od wszelkich materialnych znaczeń, i „ważkie odchylenia statystyczne” co jakiś czas rozbudowują się, aby potem bez śladu się rozpłynąć. Argumenty Browna są wyczerpujące, ale nie przedstawię ich w pełni, ponieważ o nieistnieniu omawianych zjawisk przekonuje mnie coś innego.

Gdyby telepatyczne zjawiska były rzeczywistością, gdyby stanowiły swoisty kanał informacyjnego przekazu, uniezależniony od tych wszystkich zakłóceń szumami, jakim podlega przesyłana informacja zmysłowa, to ewolucja biologiczna bez wątpienia użyłaby takich fenomenów, ponieważ bardzo poważnie zwiększyłyby szansę przetrwania gatunków w walce o byt. Stado drapieżców, np. wilków, ścigające ofiarę w ciemnym lesie, roztrącane w biegu drzewami, o ileż łatwiej mogłoby stale być naprowadzane przez przewodnika na tracony ślad, gdyby pozostawał z towarzyszami w kontakcie telepatycznym, który, jak słyszymy, nie zależy ani od warunków atmosferycznych, ani od widoczności, ani od obecności przegród materialnych. Zwłaszcza już nie musiałaby ewolucja uciekać się do kłopotliwych i wymyślnych sposobów, mających na celu wzajemne odnajdywanie partnerów obu płci. Zwykły „zew telepatyczny” zastąpiłby powonienie, wzrok, zmysł hydrolokacyjny itd., itp.

Jedynym właściwie zastanawiającym przypadkiem jest casus pewnej ćmy, która zwabia partnerów płciowych z odległości kilku kilometrów. Skądinąd wiadomo jednak, jak czułe są narządy węchowe, czy węchowo–dotykowe owadzich czułków. Ćma zwabia partnerów, umieszczona w Mateczce z siatki; nie wiadomo nic o tym, aby zjawisko powtarzało się, kiedy ją zamknąć w naczyniu hermetycznym. Poprzednio ukazaliśmy na przykładach, jakiej czułości dochodzą poszczególne zmysły zwierząt. Byłoby to pracą Ewolucji najzupełniej zbędną, gdyby zjawiska telepatyczne podlegały prawom naturalnego doboru. Dopóki zaś dobór ów działa, nie ma takich cech organizmu, które nie mogłyby mu podlegać, jeśli raz się już przejawią. A skoro jakieś ćmy, ludzie lub psy w eksperymentach wykazują telepatię, stąd wniosek, że jest ona właściwa organizmom żywym. Więc i mezozoiczni przodkowie ich winni byli te zjawiska przejawiać.

Jeśli ewolucja przez dwa do trzech miliardów lat istnienia nie mogła skumulować zjawiska ponad tę zaledwie wykrywalną w tysięcznych eksperymentach miarę, to nie trzeba nawet analizy samego statystycznego narzędzia, aby dojść do wniosku, że cała ta problematyka żadnych na przyszłość perspektyw nie otwiera. W jakiekolwiek zresztą sięgniemy środowisko, dostrzegamy zarazem nadzwyczajną użyteczność potencjalną, na równi z całkowitą nieobecnością, zjawisk telepatycznych.

Ryby głębinowe żyją w zupełnej ciemności. Czy zamiast prymitywnych narządów fosforyzujących, jakimi zaledwie w małym promieniu rozświetlają swe pobliże, by unikać wrogów i szukać partnerów, nie posłużyłyby się raczej ich lokacją telepatyczną? Czy nie powinny istnieć wyjątkowo silne związki telepatyczne pomiędzy rodzicami a ich potomstwem? A jednak samica, jeśli ukryć jej potomstwo, będzie go szukała wzrokiem, węchem, tylko nie „zmysłem telepatycznym”. Czy nie powinny były wytworzyć silnej łączności telepatycznej nocne ptaki? Nietoperze? Takich przykładów można by podawać setki. Tak zatem możemy być. spokojni, przemilczając perspektywy rozwoju technologii telepatycznej, ponieważ jeśli nawet w sieciach statystycznych protokołów tkwi jakaś kruszyna obiektywnej prawdy, jakiegoś zjawiska nieznanego, nie ma ona nic wspólnego z poznaniem pozazmysłowym[xvi].

Co się tyczy psychokinezy, dość chyba kilku zdań dla zauważenia, że wszystkie statystyczne eksperymenty są zbędne, skoro wystarczy ustawić odpowiednio czuły, strunowy galwanometr Einthovena i poprosić jakiegoś atletę duchowego, aby spowodował przesunięcie wiązki światła, odbitej od lusterka galwanometru, a padającej na skalę, powiedzmy o jedną tysięczną milimetra. Potrzeba do tego siły, kilkanaście tysięcy razy mniejszej aniżeli ta, jakiej wymaga takie obracanie lecących z kubka na stół kości, które zmienia wynik, powiększając lub obniżając liczbę wypadających oczek w stosunku do oczekiwanej losowo. Atleta psychokinetyczny winien nam wdzięczność za ten pomysł, ponieważ na kości można wpływać przez krótką chwilę, nim wypadłszy z kubka, rozsypią się po stole, przed galwanometrem natomiast, działając na jego kwarcową strunę niezrównanej czułości, będzie mógł się koncentrować całymi godzinami, a nawet dniami.


Zakończenie

 

Zakończenie książki jest po trosze jej podsumowaniem, warto więc może zastanowić się po raz ostatni nad ową skwapliwością, z jaką na martwe barki maszyn nie istniejących przerzuciłem odpowiedzialność za przyszłą Gnosis naszego gatunku. Mógłby ktoś spytać, czynie było to aby rezultatem niejakiej frustracji, niezupełnie przez autora uświadamianej, a stąd się biorącej, że —skutkiem ograniczeń historycznego czasu i własnych — niezdolny spenetrować naukę z jej perspektywami, wymyślił, a właściwie zmodernizował z lekka wersję owej sławnej „Ars Magna”, którą bystry Lullus zaproponował dosyć dawno, bo jeszcze w 1300 roku, a kilka wieków później Swift w „Podróżach Gullivera” wyśmiał należycie.

Pozostawiając na boku sprawę mojej niekompetencji, tyle bym odpowiedział. Książka ta tym się różni od fantazji, że szuka dla hipotez możliwie pewnego oparcia, przy czym za najtrwalsze ma to, co realnie istnieje. Stąd ciągłe jej odwołania do Natury, ponieważ pod tym adresem funkcjonują zarówno „samosprawcze predyktory apsychiczne” jak i „urządzenie rozumiejące” — pod postacią chromosomowych korzeni i mózgowej korony wielkiego drzewa ewolucji. Warte fatygi, bo sensowne jest tedy rozważanie, czy potrafimy je naśladować — co się atoli tyczy pryncypialne j możliwości ich budowy, nie ma dyskusji, ponieważ wszystkie te „urządzenia” istnieją, i nie najgorzej, jak wiadomo, przeszły miliardoletni test empiryczny.

Pozostaje kwestia, czemu przełożyłem model „chromosomowy” sprawstwa nierozumnego nad „mózgowy” — rozumiejącego. Była to decyzja oparta na czysto konstruktorskich, materiałowo–informacyjnych przesłankach, ponieważ pod względem pojemności, przepustowości, stopnia miniaturyzacji, oszczędności budulca, niezawisłości, wydajności, stabilności, szybkości, a wreszcie — uniwersalności — układy chromosomowe wykazują wyższość nad mózgowymi, zwyciężając je we wszystkich wymienionych konkurencjach. Ponadto pozbawione są — w aspekcie językowym — wszelkich ograniczeń formalnych, a w toku ich materialnego działania nigdzie nie pojawiają się kłopotliwe zagadnienia semantycznego bądź mentalnego charakteru. Wiemy wreszcie, że konfrontowanie z sobą na poziomie molekularnym agregatów genotypowych bezpośrednie, mające — ze względu na stany otoczenia — optymalizować rezultaty ich materialnego sprawstwa, jest możliwe, jak wskazuje na to każdy akt zapłodnienia. Zapłodnienie jest „podjęciem molekularnej decyzji” zachodzącym w konfrontacji dwu, alternatywnych częściowo „hipotez” o przyszłej postaci organizmu; „nośnikami” owych hipotez przeciwstawnych są gamety obu płci. Możliwość podobnego rekombinowania elementów materialnej predykcji nie wynika z nałożenia na procesy ontogenetyczne jakichś innych, względem nich zewnętrznych, ale wbudowana jest w samą strukturę chromosomów. Genotypy są nadto tak nauce drogiej sprawie predykcji poświęcone w sposób wyłączny i zupełny. Wszystkich owych przymiotów konstrukcyjnych jest mózg pozbawiony. Pełnej swojej informacyjnej zawartości nie mogą mózgi konfrontować (jak chromosomy) bezpośrednio, jako układy bardziej od genotypowych „definitywnie zamknięte”, znaczna zaś część ich wysokiej złożoności, na stałe związana zadaniami sterownictwa ustrojowego, „pracy predykcyjnej „oddawać się nie może. Zapewne—mózgi stanowią niejako wzorce czy prototypy już „gotowe”, „wypróbowane”, które należałoby „tylko” powtórzyć, może ze wzmocnieniem wybiórczym, aby okazały się w swoich syntetycznych wersjach — wzbudnikami teorio twórczości, podczas kiedy zaprzęgnięcie do niej układów, tak swoiście wyspecjalizowanych jak chromosomowe, nie tylko będzie trudne nadzwyczaj, ale okazać się może w końcu niepodobieństwem. Efektywność atoli „urządzeń dziedziczności”, mierzona ilością bitów w jednostce czasu na atom nośnika, jest takiego rzędu, że warto — i nie jednym nawet pokoleniem — spróbować. Jaki zresztą technolog oprze się takiej pokusie? Z dwudziestu liter aminokwasowych zbudowała Natura język „w stanie czystym”, który wyraża — za nieznacznym przestawieniem sylab nukleotydowych — fagi, wirusy, bakterie, tyrannozaury, termity, kolibry, lasy i narody— jeśli ma tylko do dyspozycji czas dostateczny. Język ten, tak doskonale a teoretyczny, antycypuje nie tyJJto warunki dna oceanów i szczytów górskich, ale kwantowość światła, termodynamikę, elektrochemię, echolokację, hydrostatykę — i Bóg wie, co jeszcze, a czego my na razie nie wiemy! Czyni to tylko „praktycznie”, ponieważ, sprawiając wszystko, niczego nie rozumie, lecz o ileż sprawniejsza jest jego bezrozumność od naszej mądrości. Czyni to zawodnie, jest rozrzutnym szafarzem twierdzeń syntetycznych o własnościach świata, bo zna jego statystyczną naturę i zgodnie z nią właśnie działa: nie przywiązuje wagi do twierdzeń pojedynczych — liczy się dlań całość miliardoletniej wypowiedzi. Doprawdy, warto nauczyć się takiego języka, który stwarza filozofów, gdy nasz — tylko filozofie.

Kraków, w sierpniu 1966


Posłowie

Dwadzieścia lat później

I

 

Dwadzieścia lat to spory szmat życia ludzkiego i niemały książki, zwłaszcza poświęconej przyszłości, bo jak powiedziano, nic się teraz nie starzeje tak szybko jak przyszłość. Złośliwość tę wymierzono w futurologów. Jak król Midas obracał w złoto, czego tylko się tknął, tak futurologia chybiała każdego celu, do którego się złożyła. Powstają wprawdzie nowe prognozy, mało znane szerszej publiczności, lecz ich autorzy przemilczają swe dawniejsze przepowiednie. Tym samym rozstrzygają pytanie o naukowość futurologii na swoją niekorzyść, nauka stoi bowiem zgodnością predykcji i faktów, a uczenie się na popełnionych błędach jest jej siłą.

Nie po to wracam do „Summy”, żeby wyliczać zawarte w niej trafne domysły, ale po to, żeby uwyraźnić to, co mam w niej za najważniejsze. Mógłbym co prawda dowodzić mego prekursorstwa zestawianiem rozmaitych dat. Na przykład powiedzieć, że kiedy Marvin Minsky uznał za realne zjawisko „zdalną obecność człowieka” — nazwał ją „telepresence”, co odpowiada terminowi „teletaksja” w tej książce, właściwie jednak musiałbym cofnąć się jeszcze bardziej wstecz, bo o „telewizytach” pisałem już w roku 1951. Mógłbym zestawić datę publikacji „The Selfish Gene’’ R. Dawkinsa z datą wyjścia mego Golema: tu i tam tradycyjnie ustalony stosunek zapisów dziedziczności do istot żywych ulega odwróceniu; przykładów takiego pierwszeństwa nazbierałoby się więcej, ale nie o to mi chodzi. Ważniejsze jest to, że dobrze wybrałem główny kierunek rozważań. Bodajże lepiej, niż sam śmiałbym sądzić przed dwudziestu laty, nie przypuszczałem bowiem, że dożyję choćby i pierwocin tego, co przewidywałem. Nie doceniłem przyspieszenia cywilizacji, która, jak ktoś zauważył, ma coraz potężniejsze środki i coraz mętniejsze cele. Przyczyniają się do tego zmagania mocarstw o supremację i wysiłki utrzymania polityczno–gospodarczego status quo w świecie, który ustatecznić tak się nie daje. Choć nie należy to do zamierzonego tematu, dodam, że zagrożenie wojną atomową będzie zapewne malało, ponieważ broń nuklearna jest nazbyt miażdżąca i ślepa w działaniu, przez co potęgowana nie powiększa niczyjego bezpieczeństwa. Dlatego należy się spodziewać doskonalenia broni konwencjonalnych, które przestają być konwencjonalne już na naszych oczach. Samonawodzące się pociski są pierwszym krokiem ku broniom programowanym na samodzielność, więc ku inteligentnym, a takie nigdy się wśród konwencjonalnych nie znajdowały. Ów trend, nie mniej kapitałochłonny niż nuklearny, niełatwo będzie zahamować. Spoza widma wojny jądrowej wyłania się inne, konfliktów angażujących arsenały środków i technik nigdy dotąd nie wypróbowanych na wielką skalę, więc nieprzewidywalnych w wynikach jak wojna atomowa, chociaż ta nieprzewidywalność nie musi się równać masowemu ludobójstwu. Ciągły przyrost innowacji czyni walor strategiczny i taktyczny nowych broni niewiadomą, gdyż operacyjna skuteczność militarna zależy od rosnącej liczby środków ataku i obrony, kontrujących się dokładnie tylko na papierze albo w symulacyjnych grach wojennych. Chcę powiedzieć, że, jak gdyby paradoksalnie, im więcej coraz precyzyjniejszych broni zawierają arsenały, tym większą wagę zdobywa w realnym starciu przypadek, ponieważ tam, gdzie o skuteczności działania decydują coraz drobniejsze ułamki sekund, przepowiadanie skuteczności — masowo zadawanych ciosów przestaje być możliwe. Wojnę światową łatwo rozgrywać dowolną ilość razy komputerowym symulowaniem, lecz w rzeczywistości można ją rozegrać tylko raz, a wówczas za późno, by uczyć się na popełnionych błędach. Zresztą wojny toczone przez ostatnich dwadzieścia lat nie były skutkiem racjonalnych decyzji ludzkich. Nie są bowiem racjonalne decyzje, które nie dają nikomu wygranej, przynosząc wszystkim straty. Futurologia nie przewidziała ani jednej z tych wojen, choć tak się starała. Nie mogła jednak, bo żadna z jej metod nie daje podstawy do prognoz polityczno–mliitarnych. Jak wynika z tego fiaska, ten, kto chce wszystko przepowiedzieć, we wszystkim się myli. Romantyczne mierzenie sił na zamiary zostało więc w futurologii całkowicie zdyskredytowane. Analiza prac futurologicznych ujawnia wszakże, że owo „wszystko” zawierało fatalną lukę. Obejmowało bowiem zewnętrzny wygląd dziejów do końca stulecia i poza nim w przejawach polityki, gospodarki, techniki i kultury, bez uwzględniania głównej siły napędowej zmian cywilizacyjnych, jaką jest nauka. Zamiast schodzić do badań podstawowych, w których kształtują się wielkie nastawienia teoretyczne, zawiadujące działaniem poznawczym na dziesiątki lat, futurologowie ograniczali się do powierzchownych przeglądów dokonań techniczno–produkcyjnych, z nich, a nie z fundamentalnych prac nauki czystej tworząc sobie bazę dla ekstrapolacji. Zamiast więc schodzić do korzeni, podawali za przyszłe plony spektakularnie wyolbrzymione owoce dnia. Przez to też poszli we władzę przelotnych mód i łatwo dających się unaocznić sensacji, które sami tworzyli dla rozciekawionej publiczności. Błąd ten pociągnął, za sobą stawianie technologii nad nauką, a był to błąd zasadniczy, gdyż technologia nie tylko nie usamodzielnia się dziś względem badań naukowych, lecz zależy od nich jak nigdy jeszcze w historii. Pozory często mylą. Rozziew czasowy między badaniami czystymi a ich zastosowaniem przemysłowym jest wciąż wielki, ale to dlatego, ponieważ aktualne zadania, jakie stawia sobie nauka, są niezmiernie złożone. Dawniej specjaliści poszczególnych fachów radzili sobie sami. Obecnie, tam zwłaszcza, gdzie jak w biologii nie można rozbić złożonych i przez to trudnych zadań na części proste, konieczna jest współpraca fachowców z dziedzin tak do niedawna odległych, jak informatyka z jej komputerami, biochemia i fizyka kwantowa. Stąd właśnie długie dojrzewanie przełomowych odkryć, ale też tym większe potem efekty ich kumulatywnego wdrożenia. Nigdy jeszcze nie było tak trudno jak dziś znaleźć domeną badań czystych, wyzbytych szansy praktycznego owocowania. Jak atomistyka zrodziła energetykę atomową, tak mechanika kwantowa rodzi nową technologię materiałów dla przemysłu, dzięki odatomowemu projektowaniu ciał stałych o pożądanych cechach, a biologia teoretyczna, zrodziwszy inżynierię genetyczną, bliską przemysłowych zastosowań, zmierza do jej spotęgowania przez skrzyżowanie z chemią kwantową i chemią autoreplikacyjnych polimerów. To właśnie przynieść winno realizację niejednego z fantastycznych pomysłów tej książki, fantastycznych dziś daleko mniej, niż kiedy ją pisałem. Mam na myśli zawładnięcie biotechnologią poprzez budowanie systemów, których nieplagiatowym wzorcem jest kod dziedziczności. Głównie tej sprawie poświęcę dalsze uwagi.

Teraz jednak powiem tylko, że o syntezie tkankopodobnych materiałów, o substancjach pseudobiologicznych pod hasłem „sztuczne życie dla przemysłu” zaczęto pisać fachowe prace jakieś dziesięć lat po ukazaniu się „Summy”. Choć się ta koncepcja jeszcze nie zmaterializowała, nie jest już nieodpowiedzialną mrzonką dyletanta. Tak więc udało mi się odnaleźć zawczasu główny kierunek myśli badawczej, czy choć jeden z takich kierunków w jego przedmiocie i stylu, czyli to, co chętnie zwie się zwierzchnią paradygmatyką poznawczych robót. Zapewne — trafny domysł takiego kierunku, hipotez jeszcze nie powstałych bądź ledwie ząbkujących w nauce to jeszcze nie pełny sukces antycypacji. Toż i całość światowej nauki nie jest uodporniona na błąd i tym samym nadzieje uczonych pewnego momentu historycznego mogą się okazać wejściem w ślepą uliczkę. Co się jednak tyczy trzonu „Summy”, już i faktów namnożyło się dość, aby można uznać jej wywód za trafnie zorientowany — przy zastrzeżeniach i dopowiedzeniach, jakie nastąpią.

Najpierw dotknę nimi tytułu. Książka nie ogranicza się, jak chciał znakomity recenzent, Leszek Kołakowski, do filozofii techniki, ani, jak już nikt tego nie głosił, do filozofii nauki, zajmuje się bowiem procesem ich wzajemnego zrastania. Może nie powiedziałem tego tak wyraźnie i dobitnie, jak należało. Zresztą nie chcę sobie przypisać nienależnych zasług. Każdy tekst ma co najmniej dwa znaczenia: węższe, które włożył weń autor (na ile mu się udało), oraz szersze, jakie włoży w lekturę późniejszy czytelnik. Czterysta lat temu Francis Bacon utrzymywał, że możliwe są maszyny latające oraz maszyny, które będą mknęły po ziemi i chodziły po dnie morskim. Bez wątpienia nie wyobrażał ich sobie żadnym konkretnym sposobem, my jednak, czytając dziś jego słowa, nie tylko mimo woli wkładamy w nie wiedzę, że tak się stało, lecz bezlik znanych nam konkretów, co potęguje wagę owej wypowiedzi. Toteż i „Summę” można dziś czytać tak, jakby przewidywała więcej, niż myślałem pisząc, ponieważ kompetentny czytelnik, będzie rzutował w tekst nadwyżkę, którą tekst dopuszcza. Jeśliby więc można mówić tu o zasłudze, to takiej tylko, że „Summa” jest pojemnie rozciągliwa w tematach wysoce aktualnych, ponieważ doszło do nie zmyślonej już zbieżności moich konceptów z rozwojowym kierunkiem nauki. Oczywiście nie wszędzie. Ale na przykład domysł, jaki wypowiedziałem (co prawda poza „Summą”), przeznaczając go do protokołów amerykańsko–radzieckich obrad CETI w Biurakanie, w roku 1971, znalazł potwierdzenie. Pisałem wtedy: „Jeżeli rozmieszczenie cywilizacji we Wszechświecie nie jest losowe, lecz wyznaczone przez dane astroficzne, jakich nie znamy, choć związane z obserwowalnymi zjawiskami, to szansę kontaktu będą tym mniejsze, im silniejszy jest związek umiejscowienia cywilizacji z charakterystyką gwiazdowego ośrodka, czyli, im bardziej różny jest rozkład cywilizacji w przestrzeni od rozkładu przypadkowego. Wszak nie wolno a priori wykluczać tego, że istnieją astronomicznie dostrzegalne wskaźniki istnienia cywilizacji. (…) Z tego wniosek, że program CETI wśród swoich reguł winien zawierać i taką, która uwzględnia przemijający charakter naszych wiadomości astrofizycznych, ponieważ nowe odkrycia będą wpływały na zmianę nawet fundamentalnych założeń programu CETI”.

Otóż to właśnie zaszło. Ze składu radioizotopów ziemskich, z danych astronomii galaktycznej i z modeli astro– oraz planetogenezy jak z części łamigłówki powstała całość o mocy hipotezy, rekonstruującej historię narodzin układu słonecznego i warunków, w jakich przyszło do powstania życia. Rzecz wymaga dość rozległej prezentacji. Dobre trzy czwarte galaktyk ma kształt spiralnego dysku, z jądrem, od którego odchodzą dwa ramiona, jak w naszej Drodze Mlecznej. Galaktyczny twór, złożony z chmur gazowych, pyłowych i gwiazd, które wciąż w nim powstają, obraca się, przy czym jądro wiruje z większą prędkością kątową niż ramiona, które nie nadążając, skręcają się, nadając całości kształt spiralny. Ramiona nie poruszają się jednak z tą samą prędkością, co tworzące je gwiazdy. Niezmienny kształt spirali zawdzięcza Galaktyka falom zgęszczenia, w których gwiazdy pełnią rolę molekuł w zwykłym gazie. Mając różne prędkości obrotowe, jedne gwiazdy pozostają w tyle za ramieniem, inne zaś doganiają je i przechodzą na wskroś. Prędkość tożsamą z prędkością ramion mają tylko gwiazdy w połowie odległości od jądra; jest to tak zwany okrąg korotacyjny (współbieżny). Obłok przedsłoneczny, z którego powstać miało Słońce z planetami, znajdował się u wewnętrznej krawędzi spiralnego ramienia i wchodził w nie około pięć miliardów lat temu. Doganiał przy tym ramię z nikłą prędkością, rzędu l km/sek. Obłok ten, znalazłszy się w fali zgęszczenia, ulegał przez długi czas kompresji, sprzyjającej powstaniu Słońca —aż jego okolą powstawały planety. Skąd o tym wiadomo? Ze składu radioizotopów naszego układuoraz z dzisiejszego położenia tego układu — w rozsiewie między ramionami Strzelca i Perseusza. Ze składu radioizotopów wynika, że obłok prasłoneczny uległ co najmniej dwa razy skażeniu produktami wybuchów Supernowych. Różny okres rozpadu tych izotopów (jodu, plutonu i aluminium) pozwala określić, że pierwsze skażenie nastąpiło tuż po wejściu obłoku w wewnętrzny brzeg ramienia, a drugie (radioaktywnym aluminium) jakieś 300 000 000 lat później. Miliony lat potem Słońce, otoczone już planetami, opuściło spiralne ramię i odtąd porusza się w spokojnej próżni, ażeby za miliard lat wniknąć do następnego ramienia galaktycznego. Najwcześniejszy swój okres przebyło więc powstające Słońce w obszarze silnej radiacji i udarów sprzyjających płanetogenezie, aby z zastygłymi, młodymi planetami wejść w przestwór wysokiej izolacji od wpływów zewnętrznych, w którym życie mogło rozwijać się na Ziemi bez zakłóceń. Jak wynika z tego obrazu, reguła kopernikańska, w myśl której Ziemia NIE znajduje się w osobliwie wyróżnionym miejscu, staje pod znakiem zapytania. Gdyby Słońce z planetami poruszało się dużo szybciej niż ramiona spirali, to często by je przecinało. Udary promienne i radioaktywne wywołane erupcjami Supernowych uniemożJi wiłyby stateczny bieg ewolucji biologicznej albo by ją zniszczyły. Gdyby Słońce poruszało się na samym okręgu korotacyjnym, gdzie gwiazdy ani nie pozostają w tyle za ramieniem, ani go nie wyprzedzają, życie też nie mogłoby się utrwalić na Ziemi, bo tak samo prędzej czy później zabiłaby je bliska eksplozja Supernowej. Gdyby zaś Słońce poruszało się na dalekiej peryferii galaktyki i przez to nigdy nie przecinało jej ramion, nie utworzyłoby zapewne planet. Jak z tego widać, wiele różnych a niezależnych od siebie, warunków musiało się spełnić, aby Słońce pierwej zrodziło planetarną rodzinę, a potem mogło stać się inkubatorem ziemskiego życia. Planetogeneza wymagała zajść gwałtownych, biogeneza natomiast — miliardoletniego zacisza. Już od pewnego czasu było wiadome, że nasz układ planetarny powstał nie bez udziału pchnięcia wybuchem bliskiej gwiazdy. Rozbudowany w całościową hipotezę, nowy obraz ujawnia, skąd taka gwiazda mogła się wziąć. Supernowe nie pojawiają się na ogół poza strefami galaktycznych zgęstków. Najczęściej wybuchają w ramionach spiralnych. A zatem warunki niezbędne dla wstępnej i właściwej fazy narodzin życia panują przy korotacyjnym okręgu galaktyki, Jęcz ani w nim samym, ani w znacznych od niego odległościach. Tak sporządzony model jest jeszcze pełen luk, których omówienie pominiemy, aby nie wchodzić w kontrowersyjne zagadnienia astrofizyczne. To odtworzenie historii naszego systemu nie jest prawdą bezapelacyjną, Jęcz całością, lepiej zwierającą wszystkie uzyskane dane w jedność aniżeli mnę, konkurujące z nim rekonstrukcje. Zawsze zresztą jesteśmy w kosmogonii w sytuacji sędziów śledczych, dysponujących tylko materiałem poszlakowym, i rzecz w tym, aby ułożyć go w najbardziej spójny logicznie i przyczynowo kształt. Dokładne odtworzenie miliardoletniej historii astronomicznego układu we wszystkich szczegółach jest niemożliwością, ponieważ w procesach takich znaczną rolę odgrywają czynniki losowe. Zbyt bliska eksplozja Supernowej zamiast ścisnąć protoplanetamy obłok, przyspieszając jego kondensację, zmiotłaby go i tym samym udaremniła narodziny Ziemi i życia.

Spiralna struktura Galaktyki, ukształtowana falami zgęszczenia. Na jej schemat naniesiono orbitę, po której krążył prasłoneczny obłok, przecinając spiralne ramiona co najmniej raz, albo dwa razy, jeśli wiek tego obłoku wynosi więcej niż 9,2 miliarda lat. Wchodząc w ramię, obłok ulega skażeniu izotopami jodu i plutonu pochodzącymi z wybuchu bliskiej Supernowej. Izotopy te rozpadały się potem przez 100 milionów lat w czasie ruchu obłoku wewnątrz ramienia (Rysunek i dane według artykułu L. S. Maroczkina, Czy lokalizacja systemu słonecznego w Galaktyce jest wyjątkowa?, „Priroda” 1982, nr 6).

Ponadto Słońce nie porusza się w samej płaszczyźnie Galaktyki, lecz po orbicie, odchylonej od tej płaszczyzny o kilka stopni. Nie wiadomo, czy to nie ma znaczenia, związanego z losami naszego układu. W każdym razie patrzy na to, że planet biogennych, więc rodzących cywilizację, należy szukać w pobliżu okręgu współbieżności. Niezbyt to korzystne dla poszukiwaczy wewnątrz Drogi Mlecznej, bo strefa poszukiwań, leżąca w płaszczyźnie dysku czy tuż przy niej, odznacza się wysokim skupieniem chmur pyłowych, gazowych, gwiazd i radiacji, utrudniających bieg i wykrywanie sygnałów. Brak tego szkopułu przy obserwowaniu innych galaktyk, wtedy jednak w grę wchodzą gigantyczne odległości, czyniące dwustronną komunikację fikcją. Zarazem moc nadajników, służących kontaktom międzygalaktycznym, musi być wielka, akty zaś sygnalizacji są przejawem doskonałego altruizmu, ponieważ nadający nie może liczyć na żaden informacyjny zysk z odpowiedzi, skoro musi czekać na nią co najmniej kilkadziesiąt milionów lat. Z drugiej strony, obszar poszukiwań uległ zacieśnieniu, i w tym trzeba upatrywać niejaką korzyść. Tak oto badanie dynamiki i struktury galaktycznej rzuciło nowe światło na problematykę międzycywilizacyjnych kontaktów. Przyjęcie opisanego modelu każe poddać korekcie dotychczasowe oceny ilości biogennych układów w naszej Galaktyce. Wiemy prawie na pewno, że żadna z gwiazd pobliża słonecznego, w promieniu jakichś 50 lat świetlnych, nie jest takim układem (oczywiście bierzemy pod uwagę tylko układy, z którymi możliwy jest syngalizacyjny kontakt). Promień okręgu korotacyjnego mierzy około 10,5 kiloparseków, to jest 34 000 lat świetlnych. Galaktyka liczy mniej więcej 150 miliardów gwiazd; przyjmując, że jedna trzecia zawarta jest w jądrze i nasadach ramion spiralnych, otrzymujemy dla ramion sto miliardów gwiazd. Nie wiadomo, jak gruby jest torus, który należy zakreślić wokół okręgu korotacyjnego, aby ogarnąć całą strefę ekosferyczną, to jest sprzyjającą powstawaniu biogennych systemów. Przyjmijmy więc, że w tej strefie, tworzącej torus, znajduje się jedna stutysięczna wszystkich gwiazd, a zatem milion. Obwód korotacyjnego okręgu wynosi 215 000 lat świetlnych, gdyby więc każda ze znajdujących się tam gwiazd oświetlała cywilizację, to przeciętna odległość między dwiema równałaby się pięciu latom świetlnym. Tak jednak nie jest, skoro żadna z gwiazd słonecznego pobliża nie ma cywilizacji pod bokiem. Powiedzmy zatem, że i przy okręgu współbieżności tylko jedna gwiazda na sto spełnia warunki biogenetyczne: wówczas będzie ich w Galaktyce 10 000, a przeciętna odległość dwóch będzie wynosiła 500 lat świetlnych. Tak obliczona przeciętna nie jest jednak wiele warta, gdyż gwiazdy znajdujące się wewnątrz ramion źle rokują co do istnienia przy nich życia, a przecież takich właśnie jest najwięcej, gdyż w ramionach są silnie skupione. Wypadałoby więc szukać wzdłuż łuku korotacyjnego przed Słońcem i za Słońcem w galaktycznej płaszczyźnie, czyli między chmurami Perseusza i Strzelca, tam bowiem mogą się znajdować gwiazdy, które podobnie jak Słońce mają już za sobą galaktyczny pasaż i teraz wraz z naszym układem poruszają się w próżniowym rozsiewie międzyramiennym. Nie wiem, czy jakieś gwiazdy tej strefy były już uwzględnione w nasłuchach. Zadanie to wydaje się nie nazbyt trudne, bo takich gwiazd jest stosunkowo mało. Ale też odległość międzycywilizacyjną w rozziewie galaktycznym trudno szacować statystycznie, tam bowiem, gdzie ilość obiektów, o których chcemy się czegoś dowiedzieć podług uśrednienia, jest skąpa, założenia statystyczne często zawodzą. Trzeba zatem raczej szukać, niż obliczać. Wróćmy jeszcze raz do naszego modelu. Tam, gdzie okrąg korotacyjny tnie ramiona spiralne, mają one około 300 parseków grubości. Protosolarna orbita, nachylona pod kątem 7–8 stopni do galaktycznej płaszczyzny, przechodziła za pierwszym i dotąd jedynym przejściem przez ramię około 4,9 miliardów lat temu. Przez ponad trzysta milionów lat podlegał obłok przedsłoneczny burzliwym warunkom wewnątrz ramienia, a odkąd je opuścił, wędruje spokojną próżnią, przy czym wędrówka ta trwa tak długo, ponieważ okrąg współbieżności, przy którym porusza się Słońce, przecina spirale ramion pod ostrym kątem, przez co łuk międzyramienny orbity słonecznej jest dłuższy od łuku wewnątrzramieniowego. Gdy spojrzeć na schemat galaktyki, mając w pamięci przedstawiony model, cały problem planet zamieszkałych staje w niesamowitym, wręcz makabrycznym oświetleniu. Oto ramiona spirali okazują się zarazem sprawczyniami i potencjalnymi zabójczyniami życia, które najpierw w pasażu powołują do istnienia, a potem, ogarniając przy następnym obrocie układy z życiem już zrodzonym, rażą je zabójczym promieniowaniem Supernowych. To, co wszczyna życie, może je potem zniszczyć. Spirala jest jakby łożyskiem porodowym i wirującą gilotyną, zależnie od tego, w jakiej fazie rozwojowej wchodzą w nią układy planetarne. Co się zaś tyczy szans nawiązania łączności, mało, że za „rufą” systemu słonecznego strefa korotacyjna zagłębia się w wysokim stężeniu gwiazd, promieniowali, pyłów i gazów— tak samo jak przed nami. Mało takich przeszkód i zakłóceń sygnałowych, gdyż położenie gwiazd, które uformowały planety grubo przed Słońcem, nie jest dla ich mieszkańców do pozazdroszczenia. Choć bowiem dla poszczególnej gwiazdy nie są bliskie erupcje Supernowych zjawiskiem zbyt częstym, zachodząc co kilkadziesiąt milionów lat, również wchodzenie układu w strugi ich szczątków nie może być dla życia obojętne. Toteż cywilizacje w takich opresjach prawdziwie mają pilniejsze zadania na głowie od budowy nadajników komunikacyjnych, w postaci samozachowawczych robót. Wobec Supernowych są to zadania nie lada nawet dla istot, potężnie górujących nad nami. Jaka jest wiarygodność nowego modelu? Wyznaczy to zapewne niedaleka przyszłość, dzięki dalszym badaniom. Jeśli zaś rozumować przez analogię, model ten przemawia do przekonania, ponieważ i w przestrzeni okołogwiazdowej wyróżnia się tak zwana strefa ekosferyczna, poza którą, dla zbyt wysokich lub niskich temperatur, życie nie jest na planetach możliwe. U Słońca obejmuje ta strefa orbity Wenus i Marsa, zawierając Ziemię. Okrąg korotacyjny byłby zatem odpowiednikiem tej strefy, przeniesionej w wymiar galaktyczny, gdzie panują inne warunki i inne zagrożenia. W świetle powyższego można lepiej zrozumieć, co miałem na myśli, mówiąc o potencjalnym podwójnym znaczeniu przepowiedni czy chociażby tylko domysłu. Twierdząc, w 1971 roku, że wykrycie związku między zjawiskami astronomicznymi a powstawaniem życia spowoduje dogłębne przekształcenie programu CETI, trafiłem w sedno, bo takie przekształcenie będzie konieczne, jeśli korotacyjna lokalizacja Ziemi w Galaktyce zostanie uznana, dzięki dalszym badaniom, za zjawisko biogenetycznie typowe. Toteż ów domysł napełnia się takim znaczeniem, jakiego nie mogłem znać, gdy dałem mu wyraz. Sam ów domysł p tyle nie był banałem, że nikt go nie wypowiedział ani nie podtrzymał. Możliwość nielosowej dystrybucji życia w Kosmosie, mocno ograniczonej do pewnych wyróżnionych stref, nie była brana pod uwagę przy tworzeniu hipotez mających wyjaśnić Silentium Universi. Powstały za to hipotezy ratujące nas przed kosmiczną samotnością powołaniem do bytu zjawisk typu samobójstw atomowych czy technologicznych, jakoby właściwych każdej cywilizacji powyżej pewnego progu rozwoju. Tendencja ta, by opatrywać całą odpowiedzialnością za ich los żywe istoty, a nie zjawiska kosmiczne, stanowiła w moich oczach wyraz współczesnych lękowi dlatego odmówiłem jej obiektywnej wartości. W niejawny sposób z mego domysłu wynikało i to, że nowych odkryć, ustalających fakultatywne związki danych astrofizycznych z biogenezą, oczekiwałem przed odebraniem jakiegokolwiek sygnału „Innych”. Jeślibyśmy bowiem odebrali sygnał z pobliża określonej gwiazdy, nie musielibyśmy już okólną drogą hipotez rekonstruujących głęboką przeszłość Galaktyki szukać miejsca, z którego mogą płynąć sygnały.

Na pytanie, czemu względnie szybkie i łatwe wykrycie sygnałów miałem (i mam nadal) za nieprawdopodobne, odpowiedziałem w cytowanej już wypowiedzi dla biurakańskiego sympozjum. Twierdziłem w niej, że przedsięwzięcia sygnalizacyjne, na które musimy liczyć, skoro sami nie wysyłamy potężnych sygnałów w Kosmos, wynikają z niewiarygodnego dla mnie założenia, jakoby wysoko rozwinięte cywilizacje były całkowicie swobodne w swoim postępowaniu. Jest to skutkiem wyobrażenia, pisałem, że rozwój cywilizacyjny dzięki właściwym mu nieustannym postępom prowadzi na płaskowyż potęgi w błogostanie i spokoju, że dociera do stanu, w którym najbardziej dla nas kosztowne i altruistyczne działania są fraszką. Moim zdaniem natomiast wielka cywilizacja ma wielkie kłopoty, każda bowiem zmaga się z problemami na swoją miarę. Odkryte fakty nie przesądziły dotąd, czy mój sceptycyzm, który może być też nazwany swoistym pesymizmem, był słuszny. Stanowi jednak odpowiedź na postawione pytanie. (Por. „Problema CETI”, Izd. MIR, Moskwa 1975, str. 329—336).

Potencje życiorodne tkwią w tak szerokim wachlarzu cech materii, uwikłane są w tyle procesów największej i najmniejszej skali, że nie sądzę, aby został już definitywnie rozpoznany generacyjny mechanizm życia. Jakkolwiek hipoteza galaktyczna zdaje się spójnie łączyć wszystkie znane fakty, czyni to procedurą poszlakową, ponadto zaś może być w wielu miejscach atakowana. Aby nie poszerzać zbytnio tych uwag, wspomnę tylko o jednym takim miejscu. Założeniem tej hipotezy jest niezmienność okołogalaktycznej orbityprzedsłonecznego obłoku. Tymczasem wielu astrofizyków kwestionuje taką niezmienność. Sądzą oni, że gwiazdy czy obłoki, wchodząc na swej okrężnej drodze w ramię, ulegają w nim perturbacjom grawitacyjnym od bliskości mnóstwa gwiazd, które spychają intruza z drogi i przemieszczają jego orbitę w kierunku odśrodkowym. Wychynąwszy po drugiej stronie ramienia, ciało takie ma więc nową, bardziej centryfugalną orbitę, po której porusza się aż do następnego przecięcia ze spiralą. Jeśli tak, to ani Słońce nie biegnie teraz tą samą orbitą, po jakiej biegło przed wejściem w spiralę, ani też towarzyszące mu gwiazdy nie są tymi samymi, jakie okalały je przy pierwszym wejściu. Gdyby jednak do takiego zepchnięcia z drogi nie doszło, znaczyłoby to, że los Prasłońca był wyjątkowy, jak los człowieka, który przechodząc przez tłum, ani razu nie zostanie w nim potrącony. Nie można tego wykluczyć, gdyby to jednak zaszło, stanowiłoby zajście statystycznie rzadkie, może nadzwyczaj rzadkie, czyli wyjątkowe, nie dające tym samym żadnych podstaw do tworzenia uogólnień, ważnych dla wszystkich przejść gwiazdowych przez spiralę. Słońce niewątpliwie żegluje teraz z planetami przez szeroką próżnię międzyramienną blisko okręgu korotacyjnego, ale gdyby się przy nim znalazło dzięki typowemu zepchnięciu z orbity od wpływów grawitacyjnych, i w tym wypadku posiadałoby wyjątkową przeszłość, o własnościach fatalnych dla astrofizyki, ponieważ nie można dokładnie ustalić rozmiarów takiego zepchnięcia jako wymiernej perturbacji dla każdej gwiazdy czy chmury. Z tego stanowiska nawet trafność rekonstrukcji przeszłości słonecznej ogranicza się do niej i tylko do niej, nic nie mówi natomiast o częstości takich zajść, a tym samym o normalnym generatywnym mechanizmie życia. Trzeba wszakże podkreślić, że z tej kontrowersji nie wynika „ignoramus et ignorabimus”. Dość otworzyć podręcznik astrofizyki sprzed dwudziestu lat, żeby stwierdzić, jak ogromne postępy zostały w tym czasie zrobione. Nie ma dziś zresztą dziedziny wiedzy, w której nie trzeba douczać się na bieżąco, dokonując brutalnych czystek na półkach biblioteki. Tak więc można się spodziewać niezadługo utrwalenia lub obalenia pokazanej hipotezy.


II

 

„Scientific American” poświęcił swój wrześniowy numer z 1981 r. w całości mikrobiologii przemysłowej. Zawierał artykuły o industrialnych mikroorganizmach, o hodowlach komórek tkankowych ssaków, oprogramowaniu genetycznym drobnoustrojów, o bakterialnym wytwarzaniu żywności, o farmakoprodukcji odbakteryjnej, o syntezie w przemyśle chemicznym, dokonywanej przez mikroby i wreszcie o mikrobiologu rolniczej. Przed dwudziestu laty procedury te tkwiły w powijakach lub jak programowanie genetyczne nie istniały. Wielki kapitał począł inwestować w tej dziedzinie: dowodem firmy jak „Gentech”. W popularnym miesięczniku „Discover” z maja 1982r. zapowiedziany na okładce artykuł nosi tytuł „Using bacteria to make computers”. Co prawda z tekstu wynika jedynie, że badacze spodziewają się takiego przerobienia bakterii, by produkowały odpowiedniki obwodów logicznych, więc jest to zapowiedź na wyrost. Dwadzieścia lat temu można było jednak znaleźć podobne kwestie tylko w tej książce. Dokonane postępy pozwalają uwyraźnić główny wywód „Summy” przez rozcięcie go na dwie części. Będą to technologia cisbiologiczna i transbiologiczna. Pod pierwszą należy rozumieć dwukierunkowe złączenie technik ludzkich ze sferą zjawisk życia. Wprowadzamy w tę sferę tradycyjnie produkowane urządzenia techniczne — głównie w protetyce, jak: sztuczne naczynia krwionośne, stawy, serca, ich rozruszniki itp. Ponadto przekształcamy na nasz użytek zjawiska tej sfery, jak o tym mówią teksty z „Scientific American”. Tak więc bionika, inżynieria genetyczna, nowa protetyka (zwłaszcza zmysłów) należą do cisbiotechnologii. Doszło już do łączenia fragmentów kodu DNA, pochodzących od bardzo odległych gatunkowo zwierząt. Robiono to na ślepo, lecz sporządzenie map genowych oraz powstających jako prototypy specjalnych urządzeń pozwoli celować takimi operacjami w pożądaną tkankę lub nawet w cały ustrój czy też pseudoustrój. Ogólnie zaś owładnięcie cisbiologiczne kodem to mniej więcej tyle, co wyuczenie się egzotycznego języka, żeby można się w nim swobodnie wypowiadać, a jak wiadomo, ktokolwiek to umie, potrafi budować i takie zdania, jakich nikt dotąd w tym języku nie wypowiedział. Jeśli będzie to wszakże język jakiegoś pierwotnego plemienia, zabraknie w nim mnóstwa swojskich nam wyrażeń, a już wykładać w nim fizykę teoretyczną byłoby niemożliwością. Tak więc nie wszystko da się wyartykułować w tym języku — i podobnie z kodem życia. Zbiór jego artykulacji, jako ustrojów zwierzęcych i roślinnych, jest wprawdzie potencjalnie nieskończony, ale zarazem ograniczony, boż nie da się tym kodem wyartykułować takiego fenotypu, który będzie na przykład dynamomaszyną czy stosem atomowym. Toteż przez technologię transbiologiczna chcę rozumieć przejęcie osnowy życia nie jako wzorca dla plagiatów bądź śmielszych rekombinacji, lecz jako logiczno—czynnościowego schematu do przemieszczenia w inne, pozabiologiczne stany materii. Technokod pozostanie zapisem sprawczej informacji, lecz może być zbudowany z abiologicznych elementów.

A jak się przedstawia wiedza o kodzie genetycznym w dwadzieścia lat po napisaniu „Summy”? Już wtedy został rozpoznany w budowie i w podstawowych funkcjach, lecz jego narodziny były zagadką odpierającą szturmy niby szklana góra: ani pierwszego stopnia, by nogę postawić. Dwa nurty badań, nieklasycznej termodynamiki i teoretycznej biologii molekularnej, musiały się skrzyżować, by rzucić światło na tę zagadkę. Pierwszy nurt wiąże się z pracami liii Prigogine’a, któremu zawdzięczamy teorię procesów dyssypacyjnych, czyli takich, odległych ód stanów równowagi termodynamicznej, w których powstają samorzutnie rozliczne konfiguracje struktur drobinowych podczas przepływu energii rozpraszanej (stąd właśnie „dyssypacja”) w sposób ciągły. Było to wielkim zaskoczeniem, dotąd bowiem sądzono, że przy ciągłym rozpraszaniu się energii nic ciekawszego od wzrostów entropii a tym samym chaosu nie zachodzi; tymczasem z teorii wynika, że nawet wpobliżu absolutnego zera materia podlega bogatym zróżnicowaniom strukturalnym, a w temperaturach, w jakich osiedliło się życie, ta jej aktywność jest dobitna. Z kolei Manfred Eigen stworzył modele molekularnych procesów, jakie mogły być wstępnymi etapami biogenezy. Pewne związki, obecne w roztworach ciepłego praoceanu, spotykając się z innymi w przypadkowych kolizjach, mogły się łączyć w koła przemian, a te z kolei tak wiązały się z innymi kołowymi reakcjami, że powstawała wzajemna zależność dynamiczna. Były to, jak je nazwał Eigen, hypercykle, o tyle „altruistyczne chemicznie”, że produkty jednego cyklu podtrzymywały drugi w ruchu i na odwrót. Te skrzyżne zależności dały początek autoreplikacji, a potem (miliony lat potem) współzawodnictwu na przetrwanie. Porządny wykład wymaga osobnej książki, wiec mogę tylko odesłać zainteresowanego do prac Eigena. Pominięcie to nie będzie dla nas zbyt wielką biedą, bo nie tyle o samym kodzie życia mamy rozprawiać, ile o jego nie istniejących krewnych. Należy się tu jednak taka jeszcze ważna uwaga. Potrafimy już utworzyć model kodowych narodzin w głowie i na papierze, lecz nie w szkle laboratoryjnym, ponieważ wypadłoby czekać na efekty co najmniej kilka milionów lat, ale chyba jednak dłużej. Byłoby też poręczniej zastąpić probówki oceanami. Chodzi bowiem o procesy masowo—statystyczne, których potężnie przyspieszyć nie można, jeśli się chce wyjść od prostych związków, a otrzymać w rezultacie choćby tylko jakieś prymitywne hypercykle. Jest to trochę jak na loterii liczbowej; jeśli tylko niewiele osób odgaduje cyfry, które będą wylosowane, może żadnej nie odgadną; gdy natomiast graczy są setki tysięcy, szansę trafienia rosną. Olbrzymia większość spontanicznie wszczętych reakcji chemicznych kończy się rozpadem czy utworzeniem ciał strącanych z roztworu; trzeba prawdziwie długo czekać, by wykrystalizowały się reakcje samopodtrzymujące, lecz znów ich lwia część wejdzie w jakiś ślepy zaułek. Sam upływ czasu jest niejako bezustannie działającym generatorem loteryjnym i jednocześnie sitem, odsiewającym przegrane; a oto następna strona rzeczy. Szansę trafienia na loterii liczbowej rosną zgodnie ze wzrostem ilości graczy, ponieważ można uczestniczyć w losowaniach dokonywanych w Warszawie, mieszkając i na Ziemi Ognistej; natomiast wszystkie ciała uczestniczące w grze chemicznej muszą być w niej fizycznie, a nie tylko obserwacyjnie obecne, toteż samym zwiększaniem ilości i różnorodności tych ciał czasu oczekiwania wygranej nie skrócimy. Ponadto nie znamy składu chemicznego hypercyklowych pierwocin życia i należy wątpić, czy go kiedykolwiek zidentyfikujemy. Współczesny kod życia nie jest na pewno identyczny ze swym protoplastą sprzed miliardów lat. Toż wczesna optymizacja kodu trwała przez cały archeozoik. Całkiem możliwe, że to, co dało początek kodowi nukleotydowemu, samo nie było mu nawet bardzo bliskie chemicznie. Dla nas najistotniejsze są dwie rzeczy. Najpierw ta, że warunki powstania kodu odcisnęły się nieodwracalnie w nim i jego tworach. Skład chemiczny roztworów, w jakich powstał kod, ukształtował informacyjno—energetyczną strukturę jego działania. Gdy sporządzić abstrakcyjny, czysto logiczny schemat pracy biokodu, nie można zeń wyczytać, czemu dzieli się na takie, a nie inne zespoły transkrypcyjne i pracuje taką, a nie inną ilością krokowych operacji. Zęby to pojąć, trzeba dopełnić ów schemat danymi chemii molekularnej. Nukleotydy, cegiełki kodu, nadawały się na trwały nośnik informacji i na jej samopowielającą się matrycę, a białka swą trzeciorzędną kłębkową strukturą przejawiały wysoką, bardzo swoistą aktywność katalityczną. Geny są przez to statyczne, a białka dynamiczne, ekspresja genów zaś to tyle, co przekład z dialektu nukleotydowego na dialekt aminokwasowy. Eównie dobrze można rzec, że nukleotydy stanowią pamięć życia, a białka — jego procesory.

Obecnie już nie to najbardziej zadziwia nas w kodzie, że powstał spontanicznie, lecz to, że na miliardoletniej drodze od archebakterii do człowieka nigdzie nie ugrzązł definitywnie wyczerpawszy swoje rozwojowe możliwości. Ten podziw winien być zarazem źródłem otuchy, że i my osiągniemy podobną sprawność jako technologowie, ponieważ jest niemożliwe, aby kod wspinał się coraz wyżej po szczeblach drabiny ewolucyjnej za sprawą bezwyjątkowego trafiania na sprzyjające warunki, niby gracz, który inkasuje na loterii same tylko główne wygrane. Było niechybnie inaczej; kod nie stanowił jednego gracza, lecz rozmnożył się na setki ich milionów i próbował wszelkich dostępnych mu taktyk w nieprzeliczonych rozgrywkach, a dla nas pocieszające jako budzące nadzieje na przyszłość jest to, że nigdzie w owych grach nie natrafił na nie przepuszczającą dalej barierę. Z tego wynika bowiem, że raz wszczęta samoorganizacja przejawia niezmożenie płodną aktywność i że wskutek uruchomionego współzawodnictwa sama tworzy dynamiczny gradient optymizacyjny. Kod musiał przekazywać informację z wysoką wiernością, lecz nie aż nieomylnie, ponieważ pewna, drobna część jego omyłek w przekazie jest metodą stosowania błędu jako rezerwuaru twórczego bogactwa. Gdyby bardzo się mylił, nie moglibyśmy powstać, a gdyby wcale się nie mylił, też byśmy nie powstali, bo życie znieruchomiałoby na niskim szczeblu rozwoju. Nie na tym więc polega zadanie, że kreacyjną moc trzeba tchnąć w materię podług najstarszych wyobrażeń, ale na tym, by sprzęgnąć, a przez to i wyzwolić potencjalnie tkwiące w niej sprawności. Wszelkie surowce i materiały naszych technologii są zasadniczo bierne i dlatego musimy je obrabiać, kształtując podług uprzednio powziętych planów; chodzi o to, żeby od takiej bierności przejść do technologii substratów już na molekularnym poziomie czynnych.

Znając logiczną strukturę jednego języka etnicznego, można nią operować jako modelem wszystkich innych takich języków. A to, ponieważ składniki mowy, fonemy czy morfemy, są słabo zależne od materialnych warunków, jakie na mowę nakłada świat. Składniki te muszą być tylko takie, aby mogły je formułować ludzka krtań i usta przy wydechu, oraz, żeby przekazywane przez powietrze jako ośrodek fal akustycznych, dawały się dobrze rozpoznawać słuchem (pomijam tu sprawę języków pisanych^ bo powstały dziesiątki tysięcy lat po narodzinach mowy). Natomiast restrykcje, nakładane przez świat na „mowę dziedziczności”, są nadzwyczaj silne, bo równe ograniczeniu nośników informacji do jednoznacznie określonych związków chemicznych. Nie znaczy to wcale, że każdy kod autoreplikacyjny, powstały gdziekolwiek we Wszechświecie, musi być tożsamy z ziemskim. Znaczy to tylko, że inny taki kod, powstały w odmiennych warunkach fizykochemicznych, tym samym musiałby mieć nałożoną przez te warunki strukturę także informacyjną, ponieważ każda samoorganizacja tego typu, wszczęta wewnątrz chemii, nie uwalniając się od jej praw, wykształca sieć swych powiązań sterowniczo—energetycznych, czyli właśnie strukturę informacyjną. Ta diagnoza nie musi być zmartwieniem dla inżynierii z zamierzenia biologicznej tylko, jest natomiast ogromnym szkopułem dla tego, kto by chciał nie tyle sam kod DNA ująć w ręce, lecz tylko jego zasadę działania, ażeby ją przemieścić czy przesadzić w obszary materii, odległe od biologicznych. Dylemat takiego kandydata na wszechkonstruktora wygląda następująco: Może on (może w zasadzie, bo dotąd tego jeszcze nie umiemy) tak] przekomponowywać kod DNA i takich dostarczyć mu budulców, żeby w wymuszonej inżynieryjnie embriogenezie wytworzył żywe gatunki, jakich nie ma, ponieważ ongiś wymarły, albo takie, jakie istnieją, lecz przydać im l nowych cech, bądź wreszcie takie, jakich nie było i nie ma, ponieważ w swym jednorazowym historycznie biegu ewolucja nie wyeksploatowała wszystkich potencji gatunkotwórczych, tkwiących potencjalnie w kodzie życia. Nie będzie jednak mógł zrobić nic więcej. Nie można, dajmy na to, nie tylko teraz, lecz i w dowolnie odległej przyszłości, sporządzić takiej odmiany kodu DNA, żeby tworzyła ustroje całkowicie niewrażliwe na radioaktywność. Z części samochodowych można tworzyć „hybrydy” różnych aut, ale na pewno nie można zbudować rakiety czy maszyny drukarskiej. Rozpiętość kodowej sprawności jest niezrównanie większa niż każdej z naszych oddzielnie wziętych technologii, lecz i jej są położone granice. Toteż „być albo nie być” tej książki zależy od tego, czy wykroczenie poza wydolność kodu biologicznego jest możliwe. Otóż upierałbym się przy stanowisku, że nie chodzi o fantasmagorię. Pewności mieć nie można, ale nie można też stawiać na samą tylko nadzieję, zwaną matką głupich. Przedstawię więc rozumowanie, którego nie ma w „Summie”, czyniące mi sprawę niebeznadziejną, najpierw w porządku abstrakcyjnie logicznym, a potem z uwzględnieniem aspektu fizycznego.

Dla wszystkich możliwych zadań jest tak oto: zawsze łatwiej jest rozwiązać jedno zadanie niż dwa. Jeśli zaś rozwiązanie jednego zadania jest niezbędne dla pokonania drugiego, to oczywiście tylko w tej kolejności można je atakować. Otóż biosfera Ziemi to skutek rozwiązania dwu kolejnych zadań: biogenezy i bioewolucji i są to takie zadania, które Natura musiała rozwiązać po kolei, ale my tej dubeltowej roboty dokładnie powtarzać nie musimy. Dwa wymienione zadania były dla Natury nierozłączne, my jednak możemy je rozłączyć, aby uporać się z każdym z osobna robotą teoretyczną i symulacyjną, na jaką Natury przecież nie stać. Powinno nam pójść łatwiej z pierwszym zadaniem, ponieważ mamy już na oku pewien wzorzec jego rozwiązania, w postaci życia. Co więcej, sporządzenie kodu (pierwsze zadanie) było trudniejsze od drugiego, gatunkotwórczego, a poznać to po czasie trwania obu. Od zaczątków kodu po takie jego okrzepnięcie, które dało wielogatunkowe radiacje bezjądrowców, upłynął dobry miliard lat. Potem tempo ewolucyjne uległo przyspieszeniu, tak że kolejne typy ustrojów coraz bardziej złożonych budowała ewolucja coraz szybciej. Oczywiście idzie o szybkość w rozumieniu porównawczym. Już nie miliard, lecz „tylko” setki milionów lat były potrzebne dla powstania ryb pancernych, płazów, owadów, a bodaj koło mezozoiku czy trochę (miliony lat) wcześniej prędkość specjacyjna osiągnęła swoje ewolucyjne maksimum: czas rzędu kilku milionów lat dla ukształtowania nowego gatunku. Podobną akcelerację wykazuje też ewolucja technologii człowieka, choć przebiegała większymi skokami, a zatem bardziej nierównomiernie, a jej przyspieszenie nie ustało po dziś dzień. Początki są widać zawsze najtrudniejsze. Tak więc dzieło biosferyczne składa się z dwóch rozłącznych, choć warunkujących się kolejnością zadań i w tym pokładam niejaką nadzieję. Przecież o wiele łatwiej jest posługiwać się językiem już istniejącym, aniżeli wykroczyć z niemoty dzięki wynalezieniu języka, jakiego nie było. Jeśli nawet istniejący język .nie dopuszcza pewnych artykulacji, nadal będzie łatwiej utworzyć w oparciu o ten język jakiś inny, jak, dajmy na to, ludzie utworzyli język matematyki, wychodząc z języka codzienności. Więc chyba nie doceniamy należycie różnorodności Kosmosu, utrzymując, jakoby cały konstruowalny w nim zbiór sprawczych języków ograniczał się do jedynego egzemplarza, jakim jest ziemski kod nukleotydowy, albo do blisko spokrewnionej rodziny takich organicznych kodów. Myślę, że Kosmos dopuszcza istnienie takiego zbioru sprawczych języków, w którym mieście się podzbiór języków samosprawczych. Pierwsze spontanicznie powstać nie mogą, drugie natomiast są do tego zdolne, jak kod DNA. To właśnie starałem się przedstawić w książce, podług wyobrażenia, że kodowy język elementarnego poziomu molekuł rodzi drzewo ewolucyjne, a w jego wysokich gałęziach powstają społeczne i rozumne istoty, wykształcające mowę jako języki następnego poziomu, ażeby, pozna wszy prawa obu poziomów, skonstruować poziom trzeci, języków sprawczych, których generatory są technologią następnej fazy cywilizacyjnej. Rozumowanie przez analogię powiadamia o różnej trudności dwu członów biotechnicznego zadania, lecz nie o właściwej dlań . strategu. W ostatniej instancji wyznacza ją niewątpliwie fizyka, zespołem fundamentalnych praw Natury, co jednak do niedawna wcale nie było pociechą, a teraz stawać się nią dopiero zaczyna. Najpierw jednak będzie wskazany naukoznawczy odskok od wywodu. Powiada się niekiedy, że badanie zdarzeń jednorazowych nie jest rzeczą nauki, lecz po zastanowieniu widać raczej, że nauka zajmuje się zarówno zajściami jednorazowymi, jak masowymi, przy czym robota teoretyczna mocno się dla obu przypadków różni. Teorie szerokozakresowe, właściwe fizyce przede wszystkim, jako dynamika ciał w ruchu (zwłaszcza przyspieszonym), jako hydrodynamika, jako termodynamika, jako astrofizyka kosmologiczna, jako teoria elektromagnetyzmu, razem z teoriami klasycznymi i kwantowymi, powiadają generalnie, jakie relacje zachodzą między pewnymi mierzalnymi wielkościami oraz że jeśli zajdzie pewne A, to z takim a takim prawdopodobieństwem zajdzie także B. Nie są jednak owe teorie szerokiego zasięgu kompletne w tym sensie, że w ogóle nie zajmują się ustaleniem warunków początkowych. Warunki te są dla owych teorii czymś zewnętrznym, co trzeba dopiero w nie wprowadzić. Stąd właśnie, z owej niezupełności, bierze się uniwersalna ważność takich teorii. Uderzona piłka tenisowa porusza się wprawdzie zgodnie z prawami dynamiki Newtona czy Einsteina (prawa Newtona wystarczą, bo przy tak małych szybkościach i masach relatywistyczne poprawki są zbędną), ale po to, żeby wyznaczyć elementy jej ruchu, trzeba podać warunki początkowe (kąt uderzenia, jego siłę, wielkość pola grawitacyjnego Ziemi itp.), których w teorii nie ma. To samo dotyczy równań mechaniki kwantowej i innych wymienionych teorii. Z astrofizyki można się dowiedzieć, jak powstają na przykład gwiazdy i planety, ale po to, żeby ustalić okoliczności powstania systemu słonecznego, znów trzeba wprowadzić do teorii dane warunków początkowych. Natomiast zajścia jednorazowe są to takie zajścia, których bez uwzględnienia warunków początkowych teoretycznie odzwierciedlić nie można. Tu wszakże zachodzi taka dodatkowa okoliczność: są zjawiska, które zaszły jeden raz, lecz należą one do mocnego zbioru zjawisk podobnych: jak właśnie powstanie Słońca, które powstało podobnie jak wszystkie gwiazdy. I są też zjawiska, które, być może, tak samo należą do zbiorów, ale my znamy tylko jeden przypadek ich zajścia. Takim właśnie przypadkiem jest powstanie i rozwój życia na Ziemi oraz jego pochodne, na przykład powstanie i rozwój cywilizacji. Teorie uniwersalne o wielkim zasięgu są zasadniczo ahistoryczne, ważność ich nie jest bowiem ograniczona przestrzennie ani zlokalizowana czasowo, natomiast teorie zajść unikalnych jak bioewolucja muszą być historyczne z samej natury rzeczy. Postulując zatem wielość sprawczych kodów, opieram się na jedynym tylko znanym egzemplarzu takiego kodu i stąd niepewność, nie mniejsza, niż kiedy postulujemy wielość cywilizacji kosmicznych, choć znamy tylko jedną. Ma to dla nas znaczenie, które jest kłopotem, ponieważ nie dysponujemy żadną ogólną teorią powstawania kodo w sprawczych ani też teorią działania takich kodów, która byłaby niezupełna i właśnie przez to uniwersalnie ważna dla wszystkich możliwych kodów tego rodzaju. Teoria taka nie obejmowałaby warunków początkowych (a więc nic by nie mówiła o tym, jaki był stan Ziemi fizyczny, jaki skład chemiczny jej oceanów, jaki atmosfery itd., gdy przyjść miało do początków molekularnej samoorganizacji, tej zamierzchłej rodzicielki kodu życia) i byłoby to jej zaletą, a nie wadą, ponieważ teoria ta wyjawiałaby, jakie cechy generalne są wspólną własnością wszystkich możliwych kodów. Tym samym pozwoliłaby nam odróżnić to, co w kodzie DNA jest czysto miejscowe, ukształtowane ziemskimi warunkami sprzed miliardów lat, od tego, co w nim jest typowe, jako współzachodzące w przypadku każdego innego kodu. Teoria taka, przez swą niezupełność, także by nam nie powiedziała, jakie warunki początkowe musimy spełnić, żeby skonstruować abiologiczny technokod, ale powiedziałaby nam dosyć, żebyśmy się od razu zorientowali w szansach takiego przedsięwzięcia. A to, ponieważ tak samo, jak każda inna teoria uniwersalnie ważna, wyjawiałaby zarówno, co może zajść realnie, jak też, co realnie zajść nie może. Jak bowiem wiadomo, każda taka teoria ma jakby awers i rewers: w awersie ustala zajścia możliwe, a w rewersie—niemożliwe (możliwe jest rozpędzenie ciała do szybkości bliskiej szybkości światła, ale niemożliwe jest przekroczenie tej szybkości; możliwe jest zmniejszenie entropii kosztem wzrostu jej w innym miejscu, ale nie jest możliwe zmniejszenie entropii „za darmo” itp.). Nie dysponując taką teorią, musimy sobie radzić bez niej, z tym, że jeśli uda się skonstruować chociaż jeden technokod, będzie to równoznaczne z urealnieniem budowy takiej właśnie teorii, tak że następne technokody można by już sporządzić z nieporównanie mniejszym nakładem trudów niż pierwszy. Po tym odskoku wróćmy do fizyki, którą nazwaliśmy najwyższą instancją nad kodem, teraz już rozumiejąc, jak niewiele pomocy możemy od niej oczekiwać. Dwa bieguny poczynań w dowolnym przedsięwzięciu to albo działanie w pełni prewidystyczne, albo w pełni losowe. W pełni prewidystycznie działa ten, kto znając wszystkie po temu niezbędne teorie fundamentalne, wszystkie warunki początkowe i brzegowe oraz takie dodatkowe informacje, jakich w tym repertuarze nie ma (np. dotyczące ilości fachowców i mocy do zaangażowania, dyspozycyjnych materiałów itp.) buduje rakietę księżycową, która po wylądowaniu wykona zadany program badawczy i przekaże wyniki drogą radiową na Ziemię. W pełni losowo zachowuje się szczur, który, zamknięty w klatce, miota się na wszystkie strony, żeby z niej wyjść. Praktyka inżynieryjna zbliża się do pierwszego bieguna, człowiek zgubiony w lesie do drugiego, uczony zaś, zbliżający się do odkrycia, pracuje metodą mieszaną, niejako pomiędzy obiema skrajnościami.

Mając za wzorzec kod życia, nie musimy oddać się metodzie czysto losowej, wiemy bowiem, że technokod, będący naszym celem, musi mieć szereg określonych właściwości jako nośnik informacji, dającej się precyzyjnie zdynamizować, do czego trzeba odpowiednich efektorów, ponadto zaś wiemy, że zbliżony do węgla chemicznie krzem też (co ostatnio odkryto) tworzy podwójne wiązania, typowe dla organicznych związków węgla jako szkieletowej struktury procesów życiowych. Moglibyśmy więc zacząć skromnie, od krzemu, albo wykorzystać dane z innego rozdziału chemii polimerów. Może też, nim weźmiemy się do dzieła, nadejdą nowe wiadomości o nowych związkach, tworzących polimery (tak sprawne przy autoreplikacjach) w szerszym przedziale temperatur i środowisk ciekłych niż życie oparte na białku. Tę, wstępnie chemiczną, więc budulcową stronę rzeczy pominę, nie abym ją miał za nic, ale dlatego, bo po jej przezwyciężeniu dopiero pojawią się rzeczywiste trudności projektu.

Może też, nim weźmiemy się do dzieła, nadejdą nowe wiadomości o nowych związkach, tworzących polimery (tak sprawne przy autoreplikacjach) w szerszym przedziale temperatur i środowisk ciekłych niż życie oparte na białku. Tę, wstępnie chemiczną, więc budulcową stronę rzeczy pominę, nie abym ją miał za nic, ale dlatego, bo po jej przezwyciężeniu dopiero pojawią się rzeczywiste trudności projektu.

W zasadzie moglibyśmy wyodrębnić z żywej komórki wszystkie składowe związki chemiczne, ale jej na powrót w życie nie złożymy. Dlaczego? Dla podobnej nieco przyczyny, dla której tylko w zasadzie można by zbudować w pełni urządzony dom od piwnic do strychu razem z patelnią w kuchni, na której smażą się ziemniaki, przez równoczesne zbliżenie ku sobie i dopasowanie wszystkich cegieł, zaprawy, tynków, dźwigarów, dachówek, rynien, elementów instalacji elektrycznej i wodociągowej, z meblami, tapetami, lampami i tak dalej. Budować trzeba po kolei i dom da się tak zbudować, ale nie żywa komórka. Dlaczego? Dlatego, ponieważ dom ma fundamenty, na których stawia się zrąb ścian i tak dalej, a komórka żadnych takich zaczątkowych miejsc nie ma: powstaje „naraz” metodą omne vivum ex vivo, i to jest właśnie metoda ewolucyjnie utworzona, w której „prace wstępne” trwały miliard lat. Rzecz więc cała w tym, jak ten ogromny czas miliony razy skrócić. Biorąc rzecz abstrakcyjnie, można sporządzić osobno zapis informacji kodowej, osobno syntetyzować odpowiednie efektory, osobno agregaty molekuł energodajnych, osobno zespół potrzebnych enzymów, a potem wziąć się do składania tych części, ale w tym celu pierwej trzeba wynaleźć odpowiednie urządzenia mikrotechniczne czy mikrochemiczne. Wnet okaże się, że takich mikroinstrumentów sporządzić się nie da i że najlepszymi narzędziami do składania molekularnych elementów w całość są inne rodzaje molekuł, albowiem tego wymaga już sama skala wielkości w owej budowie. Przyszłoby zatem wynajdywać molekuły–instrumenty, czyli utworzyć sztuczne środowisko, skierowane własnościami fizykochemicznymi nielosowo, lecz z bardzo precyzyjnym docelowym zogniskowaniem w realizację komórkowego projektu. Być może właśnie to jest droga, wzdłuż której dojdziemy do brzmiącej legendarnie syntezy życia w laboratorium. Ponieważ jesteśmy jeszcze od tej sprawności daleko, wszystko, co zapowiadam i nad czym się głowię, to zajęcie wysoce przedwczesne, które będzie tylko troszkę mniej przedwczesne, gdy dojdzie już do powtórzenia biogenetycznego aktu w probówkach. Niemniej uważam, że warto się zastanowić, co może być dalej. Czy mając już na podorędziu wszystkie formuły chemiczne lub fizykochemiczne składowych będziemy mogli uruchomić nasz nowy język sprawczy, wytłaczając w technokodzie odpowiednie programy działania? Tak prosto udać się to nie może. Zaoszczędziliśmy wprawdzie miliard lat robót wstępnych, wiemy jednak, że optymalnie już udoskonalony kod życia wytwarza gatunki w tempie co najmniej miliona lat dla jednego gatunku. Dlaczego? Dlatego, ponieważ pracuje metodą masowo—statystyczną: ogromny nadmiar prototypowych, niejako eksperymentalnych, zmutowanych genetycznie ustrojów musi przejść testy na przetrwanie w rodzicielskim środowisku, przy czym zachodzące dzięki mutacjom zmiany są drobne, krokowe, bo ta kreacyjna strategia jest metodą prób i błędów, podległą statystyce, która zapewnia nas, że jednoczesne zajście tylu korzystnych mutacji naraz, żeby dały w wyniku od razu nowy gatunek, odznacza się zerowym prawdopodobieństwem. Czy jednak my, ingerując z zewnątrz w nasz kod, nie możemy zastąpić metody, zwanej selekcją i doborem naturalnym, więc metody losowej, metodą prewidystyczną? Alternatywa ta nie zdaje należycie sprawy z problematyki wyboru. Kod życia jest jeden; z jego wyrazów składają się genotypy poszczególnych gatunków: populacja jednego gatunku stanowi zbiorowy rezerwuar zmienności dziedzicznej, a ponadto każdy genotyp, rozwijając się, tworzy fenotyp, przy czym między oboma znajduje się osobnicza rezerwa zmienności przystosowawczej do środowiska życiowego. Kod, to tyle co język pewnej grupy etnicznej; genotypom różnych gatunków odpowiadają dialekty oraz języki specjalistyczne (matematyki, logiki, kody programowania komputerów, jako że wszystkie one są pochodnymi języka etnicznego), przekładowi zaś genotypu na fenotyp odpowiada interpretacyjna zmienność sensów konkretnej wypowiedzi. Jeśli kontynuować to porównanie, języki formalne, jak maszynowe i matematyczne, mają bardzo wąskie pasmo interpretacyjne, czyli odznaczają się wysoką jednoznacznością i są w tym podobne do prostych ustrojów jak bakterie i pierwotniaki, które dzielą się rozmnażając i przez to ich genotyp sztywno zawiaduje fenotypem. Natomiast wypowiedzi interpretacyjnie wieloznaczne są jak genotypy wyższych organizmów, zdolne do wytworzenia rozmaitych środowiskowo fenotypów. Nie znając szczegółowej charakterystyki zmienności kodu, nie można zarzekać się z góry, jak optymalnie wykorzystać jego sprawczą potencję. Być może istnieją kody o większym i o mniejszym uniwersalizmie niż kod biologiczny. W każdym razie takie programowanie technokodowych artykulacji, żeby po prostu realizowały ściśle program i nic więcej, równa się rezygnacji ze wszystkich kreacyjnych i adaptacyjnych potencji kodu i tym samym stanowi powtarzanie, sposobem nietradycyjnym, tradycyjnej metody wytwórczej w technice. Nie możemy więc rozstrzygnąć tego dylematu. Możemy jedynie zauważyć, że w pełni twórcza moc biokodu realizuje się nadzwyczaj powoli i z wielkim marnotrawstwem inwestowanych środków materialnych, jako znaczną śmiertelnością osobników i wymieraniem całych gatunków. Jednakowoż ewolucja przez tę powolność i dzięki temu marnotrawstwu precyzyjnie dociera każdy swój produkt do warunków zewnętrznych i wewnętrznych (środowiska i ustroju). Prawdopodobnie trzeba będzie zastosować strategie mieszane, podług oceny kosztów liczonych przede wszystkim czasem trwania transformacji kodu w produkt końcowy. Teoretycznie ufundowany prewidyzm pozwala skrócić ten czas, lecz jednocześnie tłumi spontaniczną wynalazczość kodu, ulokowaną w jego zmienności. Wszelako ta wynalazczość potrzebuje eonów, żeby się ujawnić. Obecnie nic lepszego nie wymyślimy ponad zastąpienie realnego budownictwa symulacją komputerową. Co prawda symulować da się niewielkie etapy kodowych przekształceń, a nie ich całość na drodze od genotypu do fenotypu, bo ogrom zmiennych do uwzględnienia zagwoździ wnet najbardziej pojemny komputer. Na przyszłe generacje komputerów też nie ma co liczyć, znamy już bowiem nieprzekraczalne granice mocy obliczeniowej, tylko tak zwaną transcomputability (można ją nazwać „pozaobliczalnością”, gdyż nieobliczalność ma już ustalone znaczenie w polszczyźnie). Znamy też zadania, wymagające mocy leżącej poza tą barierą. Pozaobliczalność ustanawiają prawa i stałe Natury, jak stała Plancka czy szybkość światła. Już dziś zmuszają one projektantów do miniaturyzacji (aby bieg impulsów zużywał najmniej czasu) i do obniżania temperatury elementów logicznych (co zwiększa ich sprawność). Współczesne komputery docierają już do granic technicznej obróbki ciał stałych, w których trawi się obwody logiczne, np. na płytkach krzemu (chips). Znaczny postęp umożliwi dopiero przejście do budowania elementów na poziomie molekularnym, i tu droga naszych spekulacji przecina się z drogą informatyki. Jednakże definicja pozaobliczalności pozostaje w mocy; są zadania, jakich nie pokona nawet komputer zbudowany z całej materii Kosmosu; gdyby mógł nawet, niewielka byłaby radość, boż musiałby pracować w czasie o skali astronomiczne j i czego usiłujemy się przecież pozbyć jako największego kłopotu syntetycznej ewolucji technokodowej. Pod poziomem molekuł i atomów jako ostatnia deska ratunku znajduje się poziom cząstek elementarnych i ich zbitek w jądra, ale jakoś nie chce mi się wierzyć, żeby układy logiczne dało się upakować w nukleonach nawet i za tysiąc lat. Gdyby kod genotypów życia musiał zawierać całą informację o wszystkich krokach i fazach rozwoju płodowego (ogólniej zaś epigenezy, jako przekładania genotypu na fenotyp), to ewolucja na samym swym początku utknęłaby w miejscu. Wybieg polega na obdarzaniu cegiełek budulca autonomią. Kod jest jak strateg, tworzący armię przez to, że ją sam płodzi i ma żołnierzy zarazem posłusznych sobie oraz zdolnych do przejawiania inicjatywy. Ten kompromis, jako zespolenie posłuchu i samodzielności warto by przejąć, chociaż nie możemy nic powiedzieć o tym, jak to się robi, boż cały obszar epigenezy wciąż jest wielką białą plamą na mapach naszych wiadomości. Trudno nawet uznać, że skoro biokod to potrafi, tym samym rzecz jest możliwa, więc i nam winna się udać. Niechybnie jednak metody budowania komórkowego będą wypróbowane i nie można wykluczyć nawet rozwiązań tak dla nas dziś osobliwie brzmiących, jak budowania z takich technokomórek, z których każda zawiera odpowiednik genotypu — nanokomputera, złożonego z molekularnych obwodów, zasilanych elektrycznością albo, pozwólmy sobie raz jeden na fantazję, siłami oddziaływań podatomowych (międzycząsteczkowych). Takie jednak wizje to już nie prognozy, lecz marzenia.

Symulacja technokodowej ewolucji to gra, w której wygrane stanowią poznawczo bądź użytkowo zdatne pseudoprodukty kodu. Nie mając pojęcia, jakie mogą to być produkty, nie jesteśmy jednak skazani na milczenie. Metodę produkcyjną można rozważać i tam, gdzie konkretne produkty pozostają nieznane. Przypominam, że mamy do czynienia z językiem, a język to ma do siebie, że można w nim artykułować sensy banalne i genialne, przy czym ani językoznawca, ani gramatyk geniuszami być nie muszą. Ten, kto bada leksykografię, gramatykę generatywną i składnię pewnego języka, czy to etnicznego, czy sprawczego, nie musi się zbytnio troszczyć oto, co będzie w nim wyartykułowane. Zajmuje się tym, co i tak można artykułować: jak wiele informacji zawrzeć może jedna wypowiedź, jaka jest maksymalna praktycznie głębia logiczna w artykułowanym itp. Teoria języków etnicznych nie istnieje, można jedynie powiedzieć, że będzie podobna do teorii fizycznych, jako niezupełna (albo otwarta); ustali i ona własności pola językowego tak, jak teoria Einsteina ustala własności pola grawitacyjnego, milcząc o warunkach początkowych. Dla mowy te warunki wyznacza po prostu mówiący, boż zawsze mówi się coś konkretnego, toteż wypowiedzi są trajektoriami v polu językowym, tak jak drogi ciał niebieskich są trajektoriami w polu grawitacyjnym. Dodajmy, gdyśmy już użyli mowy jako pomocy poglądowej, że i w niej można stosować metodę dla wypowiedzi prewidystyczną albo losową. Prewidystycznie artykułuje wypowiedzi ten, kto je układa w głowie jak każdy człowiek, rozmawiający z innymi. Losowo zaś postępuje ten, kto używa metody anagramowej, by przekształcić dane mu zdanie w jakieś inne, przy czym (to jest reguła właściwa anagramom) zarówno zdanie początkowe, jak końcowe razem z pośrednimi muszą mieć jakiś sens. Praca polega na losowym zastępowaniu poszczególnych liter w wyrazach. Ewolucja pracuje tak właśnie, anagramowe. Zmianom liter odpowiadają mutacje, przeważnie dające „zdania bez sensu” lub z sensem uszkodzonym. Przy życiu pozostaje to tylko, co zachowało i po zmianie „sens”. Dba o to dobór naturalny, któremu wolno nota bene podłużać zdania, doda jąć do nich nowe litery i wyrazy składane z liter (genów). Przez to z krótkiego zdania wyjściowego może po tysiącach podstawień powstać długa fraza, znacząca coś całkiem innego niż wstępna. Ponieważ jednak czysto losowe rozwiązywanie anagramu byłoby wielce czasochłonne, miłośnik łamigłówek nie zmienia liter na ślepo, lecz przebiera je w głowie, żeby znaleźć to, co po podstawieniu zachowa sens. To, co miłośnik rozrywek umysłowych robi w głowie nad anagramem, odpowiada temu, co badacz kodowych potencji będzie robił w maszynie, symulującej artykulacje technokodu. Zakładam nader istotne uproszczenia względem bioewolucji w tym modelarstwie: produkty technokodu nie muszą się rozmnażać. Ponadto trzeba grę rozłamać na kolejne etapy. Etap, na którym jednostkami operacji są atomy, zakończy się po odnalezieniu takiej ich rodziny, która utworzy technokod z jego efektorami. Na następnym etapie jednostkami będą już elementy kodu traktowane jako litery pewnego alfabetu, układane w wyrazy i w zdania. Gdyby symulować język etniczny, gra okaże się niemożliwa, utknie bowiem zaraz w barierze pozaobliczalności; a to, ponieważ ograniczenia artykulacyjne mowy ludzkiej są słabe. Przez to właśnie można mówić rzeczy niestworzone, czyli fantastyczne i głupstwa. W mowie można wszak budować światy, sprzeczne ze światem realnym (kontrempiryczne), a nawet sprzeczne wewnętrznie wypowiedzi (antynomiczne). Natomiast ograniczenia języka sprawczego są bardzo silne, nakłada je bowiem zarówno materiał budowlany, jakim ten język zawiaduje (np. białka w epigenezie), jak i świat zewnętrzny, w którym przyjdzie egzystować ustrojom. Głupstwa wyrażane przez ewolucją podlegają karze tyleż surowej, co niezawinionej przez ich ofiary: gdy ewolucja myli się mutacjami, utworzone od tego stworzenia muszą zginąć. Kod błądzi więc albo ze skutkiem doraźnym (zmutowany letalnie gen udaremnia dalszy rozwój płodu) albo z opóźnionym (rozwój idzie dalej, lecz daje produkt niepełnowartościowy). Kod nie może wyartykułować byle czego, bo nie wszystko da się zeń sporządzić, jako artykulacja, i nie wszystko też, co da się nawet sporządzić, będzie sensowne funkcjonalnie. Moc ograniczeń obu tych zakresów jest tak znaczna, że stwarza w grze opór, który nazwiemy przeciwnikiem kodu w maszynie. Dla poglądowości uciekniemy się do porównania z szachami. Badacz to tylko arbiter i kibic. Graczem jest kod w maszynie, jako jeden szachista, a drugim jest cały zestrój wszystkich ograniczeń, jakim muszą podlegać artykulacje kodu. Są to ograniczenia wielu poziomów: atomowego, molekularnego, energetyczno–informacyjnych sprzężeń wielocząsteczkowych, przy czym wszystkie znajdują się pod restrykcjami termodynamiki i innych praw fizycznych, a ponadto na jeszcze wyższym poziomie działa „dobór techniczny”. Ten ostatni wytrąca z gry każdy produkt, który, chociaż konstruowalny niesprzecznie z prawami Natury, sprzecza się z ustanowionymi przez nas kryteriami (np. niezawodności urządzeń, wydajności i tak dalej). Mówiąc po prostu, maszyna dokonuje z kodem różnych ewolucji, a przeciwgracz, jakim jest model świata, pilnuje, żeby nie próbowała nimi wkroczyć w stany zakazane. Jeśli wkroczy, musi się cofnąć. Podprowadziwszy, tak z kilku stron porównaniami (język, szachy) do właściwej rzeczy, żeby ją choć trochę uwyraźnić, powiemy teraz, że symulacja kodowych ewolucji jest grą, której reguły zmieniają się w toku rozgrywki (chociaż nie wszystkie: ta część reguł, jaką ustanawia świat swoją fizyką, nigdy się nie zmienia). Trzymajmy się porównania z szachami jak pijany płotu. Własnościom pionów i figur odpowiadały własności atomów, a kombinacjom na szachownicy—konfiguracje molekularnych struktur, budowanych przez kod. Na następnym etapie cała skala gry się odmieni: teraz pion to już technogen, dyslokacja figur to technogenotyp, a drzewo rozgrywki to początek epigenezy (przekładania genotypu na fenotyp). Zaznaczam, że od tego etapu gry nie oczekujemy jeszcze żadnych takich kreacji technokodu, które miałyby wartość użytkową. Na to za wcześnie. Chcemy tylko wysondować graniczną rozpiętość twórczą kodu. Nie znamy granicznej rozpiętości biokodu, wiemy bowiem, co sporządził przez cztery miliardy lat, nie wiemy natomiast, co innego mógłby jeszcze lub alternatywnie sporządzić. Jeśli przez głębię logiczną rozumie się ilość operacji krokowych od początku do końca pewnego przetwarzania informacji, to przez głębię technologiczną będziemy rozumieli czasoprzestrzenny zasięg sterowniczo–regulacyjnego władztwa genotypu nad fenotypem. Najprawdopodobniej kod DNA, budując gigantozaury, zbliżał się już do granic takiego władztwa. W realnym świecie dla każdego kodu są te granice dwuzakresowe: ani w genotypie nie można pomieścić dowolnej ilości informacji sterującej, ani fenotypem nie można przekroczyć pewnych granic fizycznych. Nadmiar informacji pocznie na koniec urągać mechanizmom porządkującym ich przetwarzanie we właściwy sposób, a nadmiarowość fenotypu (choćby jako jego ogrom) ugrzęźnie w dyskoordynacji ustrojowej. (Ograniczenia te dotyczą tylko osobników, a nie ich zbiorów). Powiedzieliśmy, że symulacja jest grą ze zmieniającymi się regułami. Trzeba powiedzieć kilka słów o takich grach. Reguły szachów są ustalone, lecz gracz może je arbitralnie zmienić, sposobem zawsze niewłaściwym, ale nie zawsze niedorzecznym. Kto przy nieuwadze partnera schowa do kieszeni jego wieżę, łamie reguły sposobem dorzecznym, bo korzystnym dla ciebie. Dorzeczne, choć także niemoralne będzie zastąpienie ciągu biciem partnera szachownicą po głowie, gdyż uratuje przegrywającego przed matem. Niedorzeczne byłoby natomiast postawienie na szachownicy karalucha lub zaśpiewanie arii Radamesa z „Aidy”, mające zastąpić kolejny chód. Jedno ani drugie nic przecież graczowi nie da. Reguły szachów można gwałcić, ponieważ jest to gra czysto umowna. Gry zachodzące w Naturze takie nie są. Gracz, który bije partnera, zamiast grać, zmienia pole rozgrywki, bo wykracza z reguł szachowych i tym właśnie upodabnia się do tworów ewolucji, które grają w myśl zasady „catch as catch can”. Wszystkie chwyty są w Naturze dozwolone, dyrektywa przeżywania powiada bowiem „rób, co możesz, byłeś przetrwał! „Toteż tylko ta naczelna reguła pozostaje niezmiennie w mocy. Wszystkie inne mogą się zmieniać. Nie inaczej jest w realnych grach, jakie ludzie prowadzą z sobą w konfliktach wojennych, na zwycięstwo albo i na zniszczenie przeciwnika. Umowy, mające utrzymać walczących w ryzach etyki, są nagminnie gwałcone. Masowe rażenie bezbronnej ludności cywilnej też jest zmianą reguł, stosowanych tradycyjnie od stuleci. Symulujący komputer może zmieniać reguły gry w takiej mierze, w jakiej zezwala na to przeciwnik, który jest, przypominam, właśnie zestrojeni ograniczeń nałożonych na transformowalność kodowych artykulacji. Tan przeciwnik dba o to, żeby symulacja nie wykroczyła poza własności realnego świata. Arbiter, obserwator i zwierzchnik gry, jakim jest człowiek przy maszynie, utrąca jej grę za każdym razem, kiedy zabrnie ona w produkcję dziwolągów. Z czasem można by uzupełnić program po obu stronach, artykulacyjnej i restrykcyjnej, żeby osłabić zbyt ekscentryczną płodność maszyny, ale trzeba to robić z umiarem, by nie wylać dziecka z kąpielą. Nie każda ekscentryczność jest bezwartościowa.

Nim ruszymy dalej, przyjdzie otworzyć nawias dla kolejnej uwagi naukoznawczej. W empirii oponują sobie dwa przeciwstawne poglądy na urządzenie świata, wyrażane jako redukcjonizm i holizm (albo emergentyzm). Zgodnie z pierwszym, z najprostszych cegiełek materii można wyprowadzić własności wszystkiego, co istnieje lub może istnieć, a tylko my tego jeszcze nie umiemy. Podział nauki na różne dyscypliny przyrodoznawcze, jako fizykę, chemię, geologię, astrofizykę i tak dalej to więc rezultat ogromnych —luk naszych wiadomości. W miarę ich zapełniania fizyka będzie przerastała w chemię (już przerasta), astronomia w astrofizykę (i to też zachodzi), potem fizykochemia kwantowa w biologię itp. Podług holizmu natomiast istnieją wprawdzie fundamentalne prawa Natury, którym podlegają wszystkie materialne zjawiska (prawa grawitacji, oddziaływań atomowych i elektromagnetycznych, prawa termodynamiki), ale ponadto są takie własności układów, których nie można wyprowadzić z ich części. Pierwsze stanowisko jest raczej optymistyczne, a drugie — pesymistyczne. Jeżeli bowiem nie można przepowiedzieć własności układu, jakiego dotąd nie było, to trzeba go dla poznania sporządzić. Z fundamentalnych praw bowiem wyprowadzić własności takiego układu nie da się nigdy. Emergentyzm to tyle, co wyłanianie się ; z całości cech, jakich nie ma w częściach nawet śladowo, bo całość (holos) jest do części nieredukowalna. To pesymistyczne, ograniczające nas stanowisko może zresztą powoływać się na fakty: z ogólnej teorii Einsteina w astronautyce np. się nie korzysta, bo nie sposób uzyskać rozwiązania dla kilku ciał w ruchu na gruncie tej teorii. Niby można, ale jest to tak diablo powikłane, że o wiele prościej używać teorii Newtona z należytymi poprawkami. To samo dotyczy też mechaniki kwantowej atomu. Oddziaływania atomów podlegają wprawdzie zupełnemu opisowi przez prawa mechaniki kwantowej, lecz do niedawna myśl o przepowiadaniu własności ciał przez ich wyprowadzenie z praw atomowych była tautologią, jako gołosłownym uznaniem, że prawa fundamentalne zawiadują wszystkimi stanami materii, ponieważ są fundamentalne. Podobnie jak przy teorii Einsteina, to, co niby można było zrobić w zasadzie, w praktyce zrobić się nie dało. W ostatnim ćwierćwieczu jednak rozziew między prawami podstawowymi a ich zastosowaniem praktycznym począł zanikać, zwłaszcza w fizyce ciała stałego. Teoria operująca pojęciami modelowymi tak zwanych pseudoatomów i pseudopotencjałów pozwala skutecznie przechodzić od prą w fundamentalnych do własności ciał stałych, także złożonych, przy czym uzyskiwane postępy są większe, niż można się było spodziewać. Zapewne można będzie kiedyś obstalować u fizyka projekt materiału o pożądanych własnościach (oczywiście nie najzupełniej dowolnych), tak jak można u budowniczego zamówić projekt domu. Nowina ta pocieszy bez wątpienia redukcjonistów, a jednocześnie mniej fantastyczną czyni myśl o symulacyjnej grze technokodowej, w jej stadiach zwłaszcza najwcześniejszych. Sądzę zresztą, wracając po zamknięciu nawiasu do tej gry, że jej rezultaty rzucą nowe, nie zawsze korzystne światło na dokonania ewolucji naturalnej.

Trzeba sobie uświadomić, że i z rozpoznanej do końca struktury biokodu nie jest wywiedlna jego faktyczna potencja kreacyjna ani na pierwszy rzut oka, ani w oparciu o jakąkolwiek teorię. Tak samo przecież nie jest wywiedlna ze znajomości słownika, składni i gramatyki języka etnicznego jego kreacyjna potencja, bo znaczyłoby to tyle, co możliwość przepowiadania, na bazie angielszczyzny na przykład, całego piśmiennictwa Anglosasów razem z dramatem elżbietańskim i wierszami Eliota. Co prawda redukcjonistyczne zastrzeżenie głosi, że niemożliwość jest praktyczna, a nie zasadnicza, boż składając słowa w zdania na chybił trafił przez kilka centylionów lat, w końcu dotarłoby się i do Szekspira z Eliotem, ale nie jest to metoda godna zalecenia, także w symulacyjnych grach kodowych.

Niemniej sądzę, że sporządzony technokod pozwoli na historycznie pierwsze rozpoznanie aksjometryczne dzieł biokodu. Potajemnie wyznaję taką złożoność dzieł kodu życia, która jest zarazem zbędna i konieczna.

Konieczna ze względu na początkowe i brzegowe warunki jego narodzin, boż powstał z tego, co było na podorędziu, a działał tędy i tak, jak podług owych startowych warunków mógł działać. Lecz narzucona historycznie konieczność może się okazać w oglądzie wyprowadzającym ją za nawias historii właśnie zbędną komplikacją. Zawarty w „Summie” paszkwil na ewolucję, dopowiedziany słowami mego fikcyjnego Golema (jakoby płody ewolucyjnych zmagań były tym podlejsze w ich technologicznych jakościach, im dalej od ewolucyjnej kolebki, oraz jakoby to, co życie robi na mikropoziomie, było sprawniejsze od tego, co potrafi wydźwignąć odmolekularnym sterowaniem na makropoziomy), stanowi rzeczywisty wyraz moich podejrzeń. Ta okoliczność, że my nawet w drobnej mierze nie potrafimy dokonać tego, co potrafiła ewolucja, jeszcze nie czyni podobnej krytyki bezprzedmiotową. Mistrzostwo ewolucji wciąż wydaje się nam nieprześcignione, lecz dopiero czy symulowane, czy realne badania kodów sprawczych mogą dostarczyć nam pozaintuicyjnych miar kreacyjnej i funkcjonalnej sprawności tworzonego. Gdybym był inteligentnym robotem, a nie człowiekiem z kodu, krwi i kości, trząsłbym głową nad labiryntowymi błądzeniami ziemskiej ewolucji, pełen zdumienia i litości wobec tych wyrafinowanych wprawdzie, alei wymuszonych „ciężkimi warunkami” wybiegowi chwytów, jakich musiała się wciąż imać. Z tego rodzaju refleksji płynie zresztą dezaprobata Golema wobec żywych stworzeń, ujęta w tezę, że ewolucja zainwestowała precyzję najwyższej próby kwantowo—molekularnego poziomu w wiele mechanicznie prymitywnych rozwiązań narządowych na makropoziomie. Byłbym nawet skłonny sądzić, że sporo trudności, doświadczanych przy rozpoznawaniu mózgu ludzkiego pochodzi od „niekoniecznej komplikacji”, jako „za wleczenia „przez ewolucję rozmaitych „staroświeckich „ rozwiązań w obręb mózgu. Nie tyle myślę tu nawet o historycznie danym uwarstwieniu mózgu, odzwierciedlającego pniem, staromózgowiem, międzymózgowiem, i wreszcie nowomózgowiem miliony lat katorżnictwa ryb, płazów, gadów i ssaków, ile raczej o ledwie ostatnio dotkniętej (bo wcale jeszcze nie rozgryzionej) dwudzielności czynnościowej wielkich półkul. Z góry przepraszam wszystkich, którzy uznają to za kalumnie, lecz nikłość efektów, jakie pociąga za sobą rozcięcie wielkiego spoidła (corpus callosum) na całej przestrzeni od połączenia półkul przedniego (comisswa anterior) do tylnego (c. posterior) umacnia mnie w przekonaniu, że siedlisko rozumu można było zbudować lepiej. Powiada się, że prawa półkula jest niema (choć rozumie mowę), za to bardziej usposobiona muzycznie i irracjonalnie (oraz rzekomo intuicyjnie) od lewej, ale te diagnozy przyjdzie jeszcze opukać. W ostatniej milionoletniej chwili, gdy jęła powstawać mowa artykułowana, jej ośrodek skupił się w lewej półkuli, nader szczęśliwie, bo gdyby został zdublowany, musielibyśmy, mając dwa takie ośrodki, albo wszyscy się jąkać, albo bodajże objawiać znaczną zapadalność na rozszczepienia osobowości. Gdyby obie półkule systematycznie dopełniały się czynnościowo, to przecięcie wielkiego spoidła okazałoby się istną katastrofą tak zoperowanego człowieka, który musiałby przejawiać nie by/ej jaką utratę mocy umysłowej, dostrzegalną dla innych, jeśli nie dla niego samego, a tymczasem objawy wypadowe jako konflikty półkul są dziwnie; skromne. Epileptyk, człowiek zresztą umysłowo normalny, po takiej operacji dostrzega tylko, że na przykład gdy chce objąć żonę prawą ręką, lewa ją odpycha (fakt z historii choroby). Jeśli nic dramatyczniejszego jako spadek inteligencji chociażby nie zachodzi (toż prawa kora przestaje uczestniczyć’ w artykułowanym myśleniu i w mowie), nadmiarowość mózgu staje się porządnie zbędna, a jego sprawność tak przereklamowana, jak byłaby przereklamowana sprawność dwusilnikowego pojazdu, który po wyłączeniu jednego silnika spisuje się tak jak przedtem. Z tego, że jakoś wszystko razem działa, trudno czerpać pociechę wtedy zwłaszcza, gdy patrzeć na to, co (podobno) niższe ośrodki i prawa kora wyczyniają z pięknymi rezultatami racjonalnych prac lewej kory na świecie. Nie upierałbym się przy stanowisku, że to już pewne, ale poszlaki wspierające takie podejrzenia jednak się mnożą. Wzrostowi naszej wiedzy o sprawczych językach będzie towarzyszył spadek uznania dla dzieł ewolucji naturalnej. Ponieważ największym z możliwych głupstw jest powtarzanie cudzych błędów, inżynieria technokodowa będzie się zapewne sukcesywnie oddalała od biologicznych wzorców, i to, jak myślę mocniej w ich makroregionie niż na poziomie molekularnym. Jakkolwiek na upartego można poddawać działania ewolucji biologicznej ocenom etycznym, niezależnie od technologicznych, nikt ze specjalistów jawnie tego nie robi, aczkolwiek zdarzało mi się czytać prace paleontologów, pełne żalu nad hekatombą gadów jury i mezozoiku. Nie były to pretensje, świadomie adresowane do ewolucji, boż kto lepiej od ewolucjonisty może rozumieć, że nie jest ona osobą, więc stosowane przez nią taktyki są niepodległe etyce, jako bezintencjonahie. Sto z górą milionów lat kosmicznego zacisza Ziemi pchnęło wiele zwierząt na drogę ortoewolucji i gigantyzmu, z finałem w postaci takiego zoocydu, któremu dorównać mogłaby jedynie wojna atomowa w największej skali. Uzmysłowić sobie tych potopów życia w potopach śmierci nie można, toteż dziwiła mnie zawsze apodyktyczność, jaką antyewolucjoniści przejawiali od czasów Darwina po dzień wczorajszy ścierając się z darwinistami. Ich argumentem koronnym była niewyobrażalność takiego kumulowania się drobnych zmian, która mogłaby obdarzyć zwierzęta najniższe nawet znakomitymi w samozachowawczości instynktami. Argumenty takie nigdy nie kierują się w świat, lecz wskazują tylko na bezrozumne zadufanie ich autorów. Nikt, ale to nikt nie jest w stanie unaocznić sobie, przy najlepszej woli i największym wysiłku wyobraźni, jakich zmagań przestworem i jaką otchłanią czasu była ewolucja. Chociaż niepostrzegalny wzrokiem, ów gigantyczny kontynent otwiera się przed nami na styku dwu stuleci. Jeśli weń nie wkroczymy, będzie to wyłącznie nasza wina.

Kraków

w lipcu 1982


* E.Bellamy, Looking Backward – 2000—1887. The New American Library, New York 1960. [Istnieje przekład polski J.K.Potockiego. W roku 2000. Warszawa 1980

* P.M. Blackett. Military and Political Consequences of Atomic Energy, Turnstile Press, London 1948

* Pisane w 1961 roku.

* P.de Latil: Sztuczne myślenie, Warszawa 1958

* Ł.Sz.Dawitaszwili: Teoria Połowogo Otbora. Izd.Ak.Nauk. Moskwa, 1961

* J.M.Smith: The Theory of Evolution Penguin Books, 1962

* C.Levi–Strauss: Rasa a historia. [W tomie:] Rasa a nauka. Warszawa 1961.

* A. Koestler: Lotus and Robot. London 1960.

* J.S.Szkłowski: Wsielennaja – Żyzń – Razum. Izd. Ak. Nauk SSSR, Moskwa 1962

* A. I. Baumsztejn: Wozniknowienije Obitajemoj Planiety. ,,Priroda”,Izd.Ak. Nauk, 1961, nr 12.

* Jak i w roku 1974

* Derek J. de Solla Price: Science since Babylon. Yale University Press, ,1961.

* W. Ross Ashby: Wstęp do cybernetyki. Warszawa 1961.

* G. Pask: A Proposed Evolutionary Model. [W tomie:] Principlesof Self—Organization. Transaction of the Uniw. of Illinois Symposium of Setf Org.Pergamon Press, 1962.

* Stafford Beer: Toward the Cybernetic Factory. [W tomie jak wyżej],

* A. Turing: Możet li maszyna myslit’? [Przekł. z ang.] Moskwa 1960* Tak oznaczone pozycje były mi dostępne w przekładzie rosyjskim..

* A. A. Charkiewicz:O cennosti informacii. „Problemy Kibernetiki”, Moskwa 1960, nr 4.

* M. Taube: Computers and Common Sense (The Myth of the Thinking Machines). Columbia University Press, 1961.

* J. S. Szapiro: O kwantowanii prostranstwa i wriemieni w tieorii „elemientarnych” czastic. „Woprosy Fiłosofii” 1962, nr 5.

* D. Bohm: Quantum Theory. Prentice Hall Inc. New York. [Przekład rosyjski, Moskwa 1961]* Tak oznaczone pozycje były mi dostępne w przekładzie rosyjskim..

* W.W. Parin, R.M. Bajewski: Kibemetika w miedicinie i fizjologii. Medgiz. Moskwa 1963.

* H. W. Magoun: Czuwający mózg. Warszawa 1961.

* To, czy w danym zabiegu doszło do całkowitego „zabójstwa osobowości” z czasu T1 i zastąpienia jej osobowością nową z czasu T2 — nie jest do sprawdzenia empirycznego. Jest to bowiem cerebromatyczna „zmiana kursu” ciągła — i dlatego, że wykryć zagłady osobowości poprzedniej nie sposób, zakaz tego typu zabiegów jest konieczny. Małe „korekty” najprawdopodobniej nie zabijają osobowości, ale — jak w paradoksie z łysym — nie wiadomo, kiedy sytuacja z niewinnego retuszu przechodzi w sytuację zbrodni.

* Można „przeholować” z osobowości wcześniejszej całokształt jej doświadczeń i wspomnień w późniejszą, tj. sztucznie ukształtowaną. Pozornie gwarantuje to ciągłość istnienia: ale będą to reminiscencje „nie przystające” do nowej osobowości. Zdaję sobie zresztą sprawę z tego, że kategoryczność mego stanowiska w tej sprawie jest dyskusyjna.

* J. Shields: Monozygotic Twins. Oxford University Press. 1962.

* S. Amare1: An Approach to Automatic Theory Formation. [W tomie:] Principles of Self–Organization. Pergamon Press, 1962.

* I.I. Szmalhauzen: Osnowy ewolucjonnogo processa w swietie kibernetiki. „Problemy Kibernetiki”, Moskwa 1960, nr 4.

* G. Spencer Brown: Probability and Scientific Inference. Longmans, London 1958. „New York Times”,20 V 1963.

* „New York Times”,20 V 1963.

* A. G. Iwachnienko: Cybernetyka techniczna. Warszawa 1962.

* F. Hoyle: Black Cloud. The New American Library, 1957.

* H. S. Jennings: Das Verhalten der niederen Organismen, Berlin 1910.

* G. G. Simpson: The Major Features of Evolution. New York, Columbia 1953.

* G. Spencer Brown: op. cit.


[i] Interesujące rezultaty mogłaby dać próba wyrysowania schematycznego drzewa ewolucji technologicznej. Co się tyczy jego ogólnego kształtu, zapewne byłby podobny do takiegoż drzewa bioewolucji (tj. pierwotny jednolity pień i coraz obfitsze w czasie rozdrzewienia). Kłopot jednak z tym, że aktualny przyrost wiedzy jest wynikiem hybrydyzacji międzygatunkowej w technice, a nie w biologii. Zapładniać się mogą dowolnie odległe dziedziny ludzkiej działalności („krzyżówki” cybernetyki i medycyny, matematyki i biologii itp.), natomiast gatunki biologiczne, okrzepnąwszy, potomstwa w krzyżówkach dawać się mogą. Wskutek tego tempo technoewolucji cechuje stałe przyspieszenie, daleko większe od biologicznego. Ponadto prognozy dalekosiężne utrudnia w dziedzinie technoewolucji zjawisko niespodziewanych, nagłych zwrotów, całkowicie nieprzewidywalnych (nie można było przewidzieć wyniknięcia cybernetyki, dopóki nie powstała). Dość powstających w czasie nowych „gatunków technologicznych” jest funkcją wszystkich gatunków już istniejących, czego nie można powiedzieć o bioewolucji. Nagłych zaś zwrotów technoewolucji nie można utożsamiać z biologicznymi mutacjami, gdyż znaczenie tych pierwszych jest daleko donioślejsze. Tak np. obecnie wielkie nadzieje pokłada fizyka w badaniu cząstek neutrinowych, które były wprawdzie znane już od dość dawna, ale dopiero ostatnio zaczyna się pojmować powszechność kosmiczną ich wpływu na rozmaite procesy (np. powstawania gwiazd) oraz na rolę, często decydującą, jaką w nich odgrywają. Pewne typy gwiazd wychodzących ze stanu równowagi (np. przed wybuchem Supernowej) mogą posiadać emisję neutrinową, wielokrotnie przewyższającą ich całkowitą emisję świetlną. Nie dotyczy to gwiazd stacjonarnych typu Słońca (którego neutrinową emisja, warunkowana zjawiskami rozpadu beta, jest daleko mniejsza od energii wydzielanej promieniowaniem świetlnym). Ale astronomia pokłada obecnie szczególne nadzieje właśnie w badaniu Supernowych, których rola w ogólnym rozwoju Kosmosu, w powstawaniu pierwiastków, ciężkich zwłaszcza, a także w genezie życia, wydaje się wyjątkowa; stąd możliwość częściowego przynajmniej zajęcia przez astronomię neutrinową, nie posługującą się konwencjonalnymi aparatami (jak teleskop czy reflektor) miejsca dotychczasowej astronomii optycznej (innym konkurentem jej jest radioastronomia). Sprawa neutrina tai w sobie prawdopodobnie wiele innych zagadek, być’ może doprowadzą tu badania do odkrycia nie znanych dotąd źródeł energii (wiązałoby się to z przemianami bardzo wysokiego poziomu energetycznego, które cechują np. przekształcenie pary elektron–pozytron — w parę neutrino–antyneutrino, lub tak zwane promieniowanie neutrinowe hamowania). Obraz Kosmosu jako całości może ulec radykalnej zmianie: jeśli ilość cząstek neutrinowych jest naprawdę tak wielka, jak obecnie sądzą niektórzy, ewolucja Wszechświata warunkowana byłaby nie tyle nierównomiernie porozrzucanymi w przestrzeni wyspami galaktyk, ile jednostajnie zapełniającym tę przestrzeń gazem neutrinowym. Są to wszystko problemy tyleż obiecujące, co dyskusyjne. Na ich przykładzie szczególnie dobrze widać wszakże, w jakiej mierze rozwój wiedzy jest nieprzewidywalny i jak fałszywe byłoby mniemanie, jakobyśmy już znali w sposób pewny szereg praw podstawowych o naturze Wszechświata, a dalsze odkrycia będą tylko uzupełniać ów obraz, w głównych rysach już wiemy. Sytuacja obecnie przedstawia się raczej tak, że w zakresie szeregu gałęzi technologii posiadamy wiedzę dokładną i wcale pewną, ale dotyczy to technologii stosowanych szeroko i stanowiących podstawy materialne cywilizacji ziemskiej; natomiast o naturze mikro— i makrokosmosu, o perspektywach wyniknięcia nowych technologii, o kosmo– i planetogonii wiemy pozornie mniej niż kilkadziesiąt jeszcze lat temu. A to dlatego, ponieważ w dziedzinach tych konkurują z sobą obecnie rozmaite hipotezy i teorie, diametrialnie przeciwstawne (np. hipotezy o powiększaniu się Ziemi, o roli Supernowych w kreacji planet i pierwiastków, o typach Supernowych itd.).

Ten rezultat postępów nauki jest paradoksalny tylko pozornie, ponieważ ignorancja może oznaczać dwie rzeczy wcale od siebie różne. Po pierwsze, to wszystko, czego nie wiemy, ale o której to niewiedzy nie mamy nawet wyobrażenia (Neandertalczyk nie wiedział nic o naturze elektronów, a także nie domyślał się nawet możliwości ich istnienia). Jest to ignorancja, by tak rzec, „totalna”. Po wtóre, ignorancja może też oznaczać świadomość istnienia problemu wraz z brakiem wiedzy, jak ów problem rozwiązać. Otóż postęp niewątpliwie zmniejsza ignorancję typu pierwszego, „totalną”, powiększa natomiast niewiedzę drugiego rodzaju, czyli zbiór pytań pozbawionych odpowiedzi. To ostatnie twierdzenie nie odnosi się wyłącznie do sfery działania ludzkiego, tj. nie stanowi sądu o teoriopoznawczej praktyce człowieka, ale niewątpliwie w jakiejś mierze odnosi się także do Wszechświata (gdyż mnożenie się pytań w miarę wzrostu wiedzy implikuje pewną swoistą tego Wszechświata strukturę). Na dzisiejszym etapie rozwoju skłonni jesteśmy przypuszczać, że taki, nieskończonościowy „infinitezymalno–labiryntowy” charakter jest immanentną cechą Wszystkiego, co Istnieje. Ale i przyjęcie takiego przypuszczenia jako hurystycznej tezy ontologicznej byłoby dosyć ryzykowne. Historyczny rozwój człowieka jest zbyt krótki, aby zezwalał na formułowanie podobnych tez jako „prawd pewnych”. Poznanie bardzo wielkiej ilości faktów i ich związków może doprowadzić do swoistego „szczytu poznawczego”, po czym ilość pytań bez odpowiedzi pocznie maleć (a nie będzie, jak dotąd, zwiększała się w sposób ciągły). Dla tego, kto umie liczyć do stu, różnicy praktycznej między kwintylionem a nieskończonością nie ma właściwie żadnej. Otóż, człowiek jako badacz Wszechświata jest raczej istotą, która dopiero co nauczyła się rachować, aniżeli swobodnie żonglującym nieskończonościami matematykiem. I dodajmy jeszcze, że „skończoną” formułę budowy Kosmosu (o ile ona istnieje) można poznać, doszedłszy do „gnozeologicznej kulminacji”, jak była o tym mowa powyżej. Natomiast stały i ciągły przybór pytań jeszcze problemu nie przesądza, bo może być akurat tak, że dopiero cywilizacje, liczące sobie więcej niż (dajmy na to) sto milionów lat nieustannego rozwoju, dostają się na „poznawczy szczyt”, tak więc wszelkie w tym przedmiocie przypuszczenia, wypowiedziane wcześniej, są bezpodstawne…

*[ii] Losowo–statystyczne podejście do problemów technogenezy jest zgodne z panującą dziś modą stosowania teorii gier (której początki stworzył John von Neumann) do rozmaitych społecznych zagadnień. Sam zresztą kilkakrotnie odwoływałem się w tej książce do takich modeli. Inna rzecz, że realna złożoność problemu nie daje się zamknąć w schematach probabilistycznych. Jak wspomniałem o tym na stronie 335, tam gdzie występują układy o wysokim stopniu organizacji, nawet bardzo drobne zmiany strukturalne mogą wywołać znaczne efekty. Poza tym dołącza się tu kwestia „wzmocnienia”. Można mówić o „wzmocnieniu w przestrzeni” — modelem będzie np. dźwignia, dzięki której mały ruch „wzmacnia się” w duży, jak i o „wzmocnieniu w czasie” — którego przykład stanowi np. rozwój embrionalny. Nie istnieje dotąd nic takiego, jak socjologia topologiczna, która zajmowałaby się relacją działań jednostkowych do struktury społecznej, pojmowanej topologicznie. Pewne takie struktury mogą dawać efekty „wzmocnienia”, tj. czyn lub myśl jednostki może znaleźć korzystne warunki rozprzestrzenienia w społeczeństwie, przy czym zjawisko to może nawet przybierać charakter lawinowy (zjawiskami tego typu, które występują w układach bardzo złożonych, jak społeczeństwo albo jak mózg, w tym ostatnim np. pod postacią epilepsji, cybernetyka zaczyna się dopiero interesować). Na odwrót, inne struktury mogą singularne działania „wygaszać”. Problem ten poruszyłem w moich Dialogach. Oczywiście, swoboda działania zależy w danej społecznej strukturze od miejsca, jakie w niej jednostka zajmuje (król ma więcej stopni swobody od niewolnika). Takie jednak rozróżnienie jest raczej trywialne, bo nie wnosi nic nowego w analizę dynamiki ustrojowej: natomiast różne struktury w rozmaity sposób preferują lub tłumią poczynania indywidualne (np. myśl badawczą). Jest to właściwie zagadnienie z pogranicza socjologii, psychosocjologii, teorii informacji i cybernetyki. Na istotne osiągnięcia w tej dziedzinie trzeba jeszcze czekać. Model probabilistyczny, jaki proponuje Levi–Strauss, jest błędny, jeśli traktować go dosłownie. Wartość jego spoczywa w tym, że postuluje wprowadzenie metody obiektywnej w dziedzinę historii nauki i historii technologii, gdzie obowiązywał raczej „humanistyczny” sposób traktowania problemów w stylu: „duch ludzki, w toku dziejów ponosząc porażki i sukcesy, nauczył się w końcu czytać w Księdze Natury” itp., itd.

Levi–Stauss ma bez wątpienia słuszność, podkreślając wagę „hybrydyzacji informacyjnej”, międzykulturowej wymiany dóbr duchowych. Pojedyncza kultura jest graczem samotnym, uprawiającym określoną strategię. Dopiero przy powstaniu koalicji, jednoczącej rozmaite kultury, dochodzi do wzbogacenia strategii (do wymiany doświadczeń), co znacznie zwiększa szansę „wygranej technologicznej”. Cytuję Levi–Straussa: „Szansa ujęcia przez kulturę w jedną całość złożonego zespołu różnych wynalazków, zwanego przez nas cywilizacją, zależy od ilości i różnorodności kultur, z którymi omawiana przez nas kultura uczestniczy — najczęściej mimowolnie w wypracowaniu wspólnej strategii. A więc ilość i różnorodność…”(C.Levi-Strauss: Rasa a historia, [W tomie:] Rasa a nauka. Warszawa 1961, s. 170.)

Otóż tego rodzaju współpraca nie zawsze jest możliwa. I nie zawsze kultura jest „zamknięta”, tj. izolowana, wskutek położenia geograficznego (jak Japonia wyspowa albo jak Indie za murem Himalajów). Kultura może „zamknąć się” strukturalnie, tamując sobie w sposób tyleż doskonały, co bezwiedny, wszystkie drogi do postępu technologicznego. Zapewne, położenie geograficzne ma wielkie znaczenie, miało je zwłaszcza w Europie, gdzie powstawały blisko siebie kultury różnonarodowe, które wpływały na siebie intensywnie (jak to wynika choćby z historii wojen…). Ale taki element losowy nie jest wyjaśnieniem wystarczającym. Regułą metodologiczną ogólnie ważną winno być, że prawidłowości statystyczne należy sprowadzać do deterministycznych, o ile to jest tylko możliwe; ponawianie prób, wobec początkowych porażek (przypomnę choćby daremne próby „zdeterminizowania”, przez Einsteina i współpracowników, mechaniki kwantowej) nie jest marnotrawstwem, ponieważ statystyka może (choć nie musi) być właśnie tylko obrazem zamglonym, przybliżeniem nieostrym, a nie dokładnym odzwierciedleniem prawidłowości zjawiska. Statystyka pozwala na przewidywanie ilości wypadków samochodowych w zależności od pogody, dnia tygodnia itp. Ale ujęcie singularne pozwala wypadkom lepiej zapobiegać (bo każdy oddzielnie powodowany jest zdeterminowanymi przyczynami, w rodzaju słabej widoczności, kiepskich hamulców, nadmiernej szybkości itp.).

Istota z Marsa, obserwująca krążenie „cieczy samochodowej”, z jej „ciałkami–autami” na autostradach ziemskich, łatwo mogłaby uznać to zjawisko za czysto statystyczne. To więc, że pan Smith, który codziennie jedzie autem do pracy, pewnego razu zawraca z połowy drogi, uważałaby ta istota za fenomen „indeterministyczny”. Tymczasem wrócił, bo zapomniał w domu teczkę. To był „skryty parametr” zjawiska. Ktoś inny nie dojeżdża do celu, bo przypomniał sobie o ważnym spotkaniu albo zauważył, że silnik się grzeje. Tak więc rozmaite czynniki czysto deterministyczne mogą w sumie dawać obraz pewnego uśrednionego zachowania się wielkiej masy elementarnych zjawisk, jednorodnej tylko pozornie. Istota z Marsa mogłaby sugerować ziemskim inżynierom, aby poszerzyli drogi, co ułatwi cyrkulację „cieczy samochodowej” i zmniejszy ilość wypadków. Jak z tego widać, i ogląd statystyczny pozwala na wysuwanie realnie przydatnych koncepcji. Jednakże dopiero uwzględnienie „skrytych parametrów” pozwoliłoby na radykalną poprawę: należy poradzić p. Smithowi, aby teczkę zostawiał zawsze w aucie, drugiemu kierowcy, by zapisywał ważne spotkania w notesie, trzeciemu, by w porę dawał auto do przeglądu technicznego itp. Tajemniczość stałego procentu aut, nie dojeżdżających do celu, przy ustaleniu skrytych parametrów znika. Podobnie też może się rozwiać tajemniczość zmiennych strategii kulturotwórczych ludzkości przy dokładnym badaniu topologicznym oraz informacjonistycznym ich funkcjonowania. Jak bardzo trafnie zauważył cybernetyk radziecki Gelfand, także w zjawiskach niezmiernie złożonych można wykryć ich parametry istotne i nieistotne. Jakże często kontynuuje się badania rozpaczliwym ustalaniem coraz to nowych parametrów nieistotnych. Taki charakter noszą np. badania korelacji między cyklami słonecznej aktywności a cyklami „prosperity” ekonomicznej (np. u Huntingtona). Nie o to idzie, że korelacji takiej nie ma; wykryto ją; rzecz w tym, że korelacji takich jest zbyt wiele. Huntington w swej książce przytacza takie ich ilości, że problem motorów postępu tonie w oceanie korelacyjnym. Nieuwzględnianie związków, więc zmiennych nieistotnych, jest co najmniej tak samo doniosłe, jak badanie istotnych. Z góry naturalnie nie wiadomo, które zmienne są istotne, a które nie. Ale właśnie dynamiczne i topologiczne ujęcie pozwala na rezygnację z metody analitycznej, która jest tu nieprzydatna.

[iii] Wnioskowanie o prawdopodobnym typie cywilizacyjnego w Kosmosie przy opieraniu się na niedostrzegalności sygnałów i zjawisk astroinżynieryjnych może, naturalnie, kojarzyć się z „wnioskowaniem” o istnieniu telegrafu bez drutu w starożytnym Babilonie (bo skoro archeologowie nie znaleźli w wykopaliskach drutów, widać używano ram radia…).

Odpowiedzieć można na podobny zarzut tyle. Jak o tym będzie mowa w przypisie [VI], wzrost wykładniczy cywilizacji nie jest możliwy przez czas dłuższy. Hipoteza anihilacji po krótkim, kilka tysięcy lat trwającym rozwoju technologicznym, zakłada absurdalny determinizm (że zginąć musi rychło każda cywilizacja, bo gdyby ginęło ich tylko 99,999%, to z pozostałego promila powstałyby w krótkim, tysiącami wieków liczonym czasie, olbrzymie radiacje ekspansywne, obejmujące całe galaktyki).

Pozostaje więc jedynie trzecia hipoteza — wyjątkowej rzadkości psychozoików (jeden, najwyżej dwa — trzy na galaktykę). Stoi ona w sprzeczności z podstawowym postulatem kosmogonicznym (jednorodności warunków w całym Kosmosie i płynącego stąd, wysokim pradopodobieństwem obarczonego wniosku, że Ziemia, Słońce, my wreszcie stanowimy zjawiska przeciętne, a więc względnie częste).

Dlatego koncepcja „odcinania się” cywilizacji od Kosmosu tak, aby jej działalność nie dawała się łatwo dostrzec w skali astronomicznej, wygląda na hipotezę najbardziej prawdopodobną. Dlatego właśnie ona uznana została za przewodnią przy pisaniu tej książki.

[iv] Wszystkie omawiane hipotezy zakładają model Kosmosu, przyjęty przez Szkłowskiego, tj. „pulsującego” Wszechświata, w którym po fazie „czerwonej” ucieczki galaktyk przychodzi do ich „niebieskiego” skoncentrowania. Pojedynczy „suw” takiego „silnika kosmicznego” trwa około 20 miliardów lat. Istnieją też inne modele kosmogoniczne, to np. Lyttletona, spełniający warunki „doskonałej zasady kosmogonicznej”, która polega na przyjęciu, że obserwowalny stan Wszechświata zawsze jest taki sam, tj. że zawsze obserwator dostrzegałby taki obraz ucieczki galaktyk, jaki widzimy obecnie. Istnieje szereg trudności charakteru astrofizycznego, z którym się ten model boryka, nie mówiąc już o tym, że zakłada on kreację materii z niczego (w objętości równej objętości pokoju powstaje jeden atom wodoru raz na sto milionów lat). Zazwyczaj argumentów biologicznych nie używa się w dyskutowaniu kosmogonicznych modeli, należy jednak zauważyć, że nieskończenie stary i niezmienny Kosmos wprowadza dodatkowy paradoks. Jeśli bowiem Kosmos istnieje w zbliżonej do obecnego stanu postaci nieskończenie długo, to winny były w nim powstać nieskończone ilości cywilizacji. Jakkolwiek zaś wielkie i przeraźliwe byłyby ograniczenia trwania poszczególnych takich cywilizacji, wystarczy przyjąć, że dowolnie mały ich ułamek przekracza poziom astroinżynierii, uniezależniając istnienie rozumnych istot od ograniczonego czasu trwania gwiazdy macierzystej, aby w rezultacie dojść do wniosku, że w Kosmosie winna obecnie istnieć nieskończenie wielka ilość cywilizacji (bo dowolnie mały ułamek nieskończoności sam jest nieskończonością). Tak więc i ten paradoks pośrednio skłania do przyjęcia hipotezy o zmienności stanów Kosmosu w czasie.

Zauważmy też nawiasowo, że biogeneza nie musi zachodzić wyłącznie w systemach planetarnych, z centralną gwiazdą jako źródłem energetycznym. Jak zwrócił na to uwagę Harlow Shapley (The American Scholar, nr III, 1962), istnieją płynne przejścia między gwiazdami a planetami; istnieją zarówno bardzo małe gwiazdy, jak i bardzo wielkie planety; ponadto wysoce prawdopodobna jest mnoga obecność w Kosmosie ciał „pośrednich”, tj. gwiazd starych, bardzo małych, które posiadają stałą powierzchnię (skorupę), ogrzewane są zaś ciepłem swego wolniej stygnącego wnętrza. Na takich ciałach, jak przypuszcza Shapley, również może dochodzić do powstawania rozmaitych form homeostazy, tj. życia. Byłoby ono odmienne od form życia planetarnych, ze względu na szereg istotnych różnic w warunkach fizycznych: masa takich „gwiazdo–planet” jest na ogół, w zestawieniu z ziemską, znaczna (inaczej zbyt szybko by wystygły), ponadto nie posiadają one swego Słońca, tj. są to ciała samotne, pogrążone w wiecznej ciemności, tak więc powstające tam formy życia prawdopodobnie nie wykształciłyby zmysłu wzroku.

Nie poświęciliśmy miejsca omówieniu tej, najzupełniej przekonywającej hipotezy dlatego, ponieważ zadaniem naszym było nie tyle wykrycie wszelkich możliwych form powstawania życia i cywilizacji, a jedynie takich, których ewolucja prawdopodobnie przypomina ziemską, do Kosmosu bowiem odwołaliśmy się jako do instancji, mającej rozstrzygać o możliwych kolejach naszej własnej cywilizacji.

[v] Wprowadzająca ład w dotychczasowy chaos elementarnych cząstek teoria oktetową ma za jedną ze swych konsekwencji postulowane istnienie szczególnych cząstek, które Gell–Mann nazwał kwarkami (quark — słowo nic nie znaczące, a wymyślone przez Joyce’a, występujące w jego poemacie „Finnegans Wake”). Zgodnie z teorią oktetową wszystkie cząstki elementarne są złożone z kwarków, cząstek daleko większych od protonu, wykazujących w złączeniu ogromny defekt masy. Mimo intensywnych poszukiwań, dotychczas nie udało się wykryć hipotecznych kwarków w stanie wolnym, i niektórzy badacze skłaniają się do przeświadczenia, że chodzi tylko o użyteczną fikcję matematyczną.

[vi] Problemy wzrostu wykładniczego w wyższej mierze przesądzą o przyszłych losach cywilizacji, aniżeli się na ogół uważa. Możliwy jest wzrost wykładniczy liczby istot rozumnych, jak również informacji (techniczno–naukowej). Wzrost wykładniczy informacji i energetyki może zachodzić przy względnej stabilizacji liczebności żyjących istot. Prawdopodobnie każda cywilizacja stara się o maksymalizację tempa przyrostu informacji techniczno–naukowej, a zapewne i dostępnych źródeł energetycznych. Brak bowiem powodów, jakie moglibyśmy sobie wyobrazić, usuwających motywy takiego postępowania. Cywilizacja, wchodząca w fazę astronautyki, staje się wręcz niesamowicie „żarłoczna” pod względem energetycznym, gdyż loty galaktyczne (poza obręb własnego systemu słonecznego) wymagają ilości energii, porównywalnych z ułamkami mocy słonecznej, jeśli mają się przejawić te relatywistyczne efekty, wywołane zbliżaniem do szybkości światła, które umożliwiają lot w obie strony (planeta–gwiazda–planeta) w czasie tego samego rzędu, co życie jednego pokolenia (załogi statku). Tak więc, nawet przy ograniczeniu liczebności istot żyjących na planecie, potrzeby energetyczne cywilizacji winny gwałtownie rosnąć.

Co się natomiast tyczy ilości zdobywanej informacji, to nawet przekroczenie bariery informacyjnego przyrostu nie otwiera takiego rodzaju swobody przyrostu populacyjnego, jaki mógłby być pożądany. Wielu fachowców dostrzega już dzisiaj przyszłe, szkodliwe skutki nadmiernej ekspansywności demograficznej (tj. przyrostu istot żywych). Niemniej widzą oni przede wszystkim trudności, wynikające z potrzeby wyżywienia i zaopatrzenia materialnego (odzież, mieszkania, transport itp.) wykładniczo rosnącej ludności planety. Natomiast problemy społeczno–kulturalnego rozwoju cywilizacji, która wzrasta wykładniczo, nie były, o ile wiem, przez nikogo dokładniej analizowane. Tymczasem na dalszą metę mogą one okazać się czynnikiem decydującym o konieczności zahamowania przyrostu naturalnego, nawet gdyby dało się dzięki udoskonaleniom technologii zabezpieczyć pomieszczenie i wyżywienie bilionowych mas ludzkich.

Typowym w tej mierze wydaje się przykład Dysona, astrofizyka, który postuluje stworzenie „sfery Dysona”, zbudowanej z materiału wielkich planet pustej kuli, oddalonej od Słońca o jednostkę astronomiczną. Sądzi on, że każda cywilizacja, już po kilku tysiącach lat istnienia, zmuszona jest czynnikami natury obiektywnej (przede wszystkim wzrostem liczebności) otoczyć swoje słońce taką cienkościenną, pustą sferą, co umożliwi zarówno pochłanianie całej energii promieniowania słonecznego, jak i stworzy olbrzymią przestrzeń dla osiedlania się mieszkańców tej cywilizacji. Ponieważ powierzchnia wewnętrzna owej sfery, zwrócona ku słońcu, byłaby mniej więcej miliard razy większa od powierzchni Ziemi, mogłaby odpowiednio pomieścić miliard razy więcej ludzi, niż uczynić to może Ziemia. Tak więc, wewnątrz „sfery Dysona” może żyć około 3–8 trylionów ludzi naraz.

Dyson jest do tego stopnia przekonany o nieuchronności budowania „sfer okołosłonecznych”, że postuluje poszukiwanie ich w Kosmosie, gdyż sfera taka winna być dostrzegalna jako miejsce, wydzielające stałe promieniowanie o ciepłocie około 300 stopni w skali absolutnej (przy założeniu, że przekształca ona energię promienistą swego słońca w różnego rodzaju energie, potrzebne do celów przemysłowych, które opuszczają ostatecznie sferę w postaci promieniowania cieplnego).

Jest to jeden z najbardziej zdumiewających przypadków rozumowania „ortoewolucyjnego”, jaki znam. Dyson w samej rzeczy obliczywszy ilość materii, zawartej we wszystkich planetach naszego układu, moc promienistą słońca itp., doszedł do rezultatu, świadczącego o tym, że takie astroinżynieryjne dzieło byłoby do zrealizowania (ponieważ ilość materii wystarczy dla zbudowania postulowanej sfery, ponieważ w ten sposób wykorzystać się da cała moc słonecznej emisji). Otóż, to zapewne byłoby możliwe. Jednakże rozumowanie to zakłada milcząco, że, po pierwsze, wzrost liczebności żyjących do trylionów jest pożądany, a po wtóre, że jest on możliwy w sensie społeczno–kulturowym (przyjmujemy, że od strony technicznej jest do urzeczywistnienia).

Wszystkie istoty żywe, a więc i rozumne także, obdarzone zostały przez bioewolucję tendencją rozrodu, przewyższającego wskaźnikami przyrostu straty wywołane umieralnością. Stąd wszakże, iż ludzie mogliby powiększać swą liczbę w skali wykładniczej, doprawdy nie wynika, że powinni to robić.

Należy zauważyć, że i sfera Dysona nie umożliwia wzrostu wykładniczego przez czas dowolnie długi. Kiedy liczba żyjących na niej przekroczy kilkanaście trylionów, zajdzie potrzeba bądź to zahamowania dalszego przyrostu, bądź też poszukiwania innych terenów kosmicznej kolonizacji (w pobliskich układach gwiezdnych na przykład). Tak więc, najpierw możemy stwierdzić, że i sfera Dysona oddala jedynie problem regulacji przyrostu naturalnego, ale go nie likwiduje. Następnie należy zważyć, że każda społeczność jest układem samoorganizującym się; wprawdzie nie wiemy jeszcze nic o granicznej wielkości takich układów, ale nie ulega kwestii, że się takie „kłady nie mogą rozrastać przez czas dowolnie długi. Najbardziej liczebny układ, jaki znamy, to jest mózg ludzki, stanowi zespół około 12 miliardów elementów (neuronów). Zapewne możliwe są układy o ilości elementów rzędu biliona, ale wydaje się nadzwyczaj wątpliwe, aby mogły istnieć układy jednolite, liczące takich elementów tryliony. Powyżej pewnej granicy musi dojść do procesów rozpadowych, do podziałów, a tym samym, do kulturalno—społecznej dezintegracji. Nie chodzi przy tym o naiwne próby odpowiadania na pytania, co właściwie miałyby robić tryliony żyjące na wewnętrznej powierzchni sfery Dysona (chociaż los tych istot wydaje się raczej godny pożałowania: powierzchnia sfery, jak to wynika z obliczeń szacujących ilość materiału na jednostkę jej powierzchni, musi być względnie cienka i jednorodna, tym samym i mowy nie ma o jakimś „krajobrazie”, o górach, lasach, rzekach itp.), nie chodzi więc o wynajdywanie dla nich „zajęć i zawodów”. Chodzi o to, że tryliony współistniejących istot nie mogą posiadać jednej, wspólnej kultury, jednej tradycji społeczno—kulturowej, która choć trochę byłaby podobna do czegośkolwiek znanego nam z historii człowieka. Sfera Dysona odcina od nieba gwiazdowego, stanowi też likwidację planet, więc rezygnację z istniejących na nich warunków; jest ona tworem sztucznym, czymś w rodzaju biliony razy powiększonego i otaczającego sobą środek systemu, jego gwiazdę — miasta. Kilka prostych obliczeń wykazuje z łatwością, że jaki taki ład w jej obrębie, że zaopatrzenie t jej mieszkańców w środki niezbędne do egzystencji, są do urzeczywistnienia tylko pod warunkiem, że mieszkańcy owej sfery praktycznie będą przebywali przez całe życie w pobliżu miejsca narodzin.

Istoty te nie mogłyby podróżować z powodów czysto fizykalnych (powiedzmy, że istnieją w obrębie sfery Dysona „miejsca atrakcyjne”: ściągałyby one nie miliony turystów, jak to jest dzisiaj, lecz setki miliardów). Ponieważ zaś cywilizacja techniczna oznacza wzrost ilości urządzeń mechaniczno–technicznych, przypadających na jednostkę żywą, byłaby powierzchnia sfery Dysona nie tyle miastem nawet, co miliard razy większą od powierzchni Ziemi halą fabryczną, czy też parkiem maszynowym. Wyliczanie takich, mówiąc eufemistycznie, „niedogodności” trylionowego bytowania, można by dowolnie kontynuować. W ten sposób doprowadza się do absurdu całą ideę postępu, gdyż rozumiemy przezeń wzrost swobód indywidualnych, a nie ich malenie, i zaiste osobliwa to uzyskana „swoboda rozrodu nieograniczonego” (zresztą jak wskazałem wyżej, pozorna), na której ołtarzu trzeba złożyć całe mnóstwo innych swobód.

Cywilizacja nie oznacza wzrostu wszelkich możliwych swobód. Swoboda kulinarii kanibalów, swoboda samookaleczania się i mnóstwo innych, zostały już skreślone powszechnie z magna charta li berta tum technologicznie rozwijającego się społeczeństwa. Trudno właściwie zrozumieć, dlaczego swoboda rozmnażania się ma pozostać nietknięta, nawet gdyby doprowadziła do całkowitego unieruchomienia jednostek, do strzaskania tradycji kulturowej, do rezygnacji, całkiem dosłownej, z urody Ziemi i nieba; wizja zaś trylionów „sfer Dysona”, jako głównego ciągu rozwojowego wszelkich w ogóle istot rozumnych w Kosmosie wydaje mi się niewiele mniej monstrualna od von Hórnerowskiej wizji samolikwidujących się psychozoików. A zresztą żadna wykładniczo rosnąca w liczebność cywilizacja nie jest w ogóle możliwa, gdyż w ciągu paruset tysięcy lat zaludniłaby cały widzialny Kosmos aż do najdalszych skupisk metagalaktycznych. Otóż, jeśli sfera Dysona jedynie na parę tysięcy lat odwlec ma urzeczywistnienie regulacji urodzin, trzeba powiedzieć, iż jest to doprawdy straszliwa cena za niechęć działania dyktowanego przez rozsądek w właściwej porze.

 

*

 

Przytoczyłem koncepcję Dysona raczej ze względu na jej kuriozalność aniżeli merytoryczne zainteresowanie, jakie może ona wzbudzić. „Sfera Dysona” jest niemożliwa do skonstruowania, jak to wykazał astronom W. D. Dawydow („Priroda” 1963 nr 11). Nie jest mgżliwa ani jako kulista cienkościenna sfera, ani jako system pasów pierściennych, ani jako czasze, ponieważ w żadnym wypadku nie może stanowić konstrukcji trwałej dynamicznie choćby przez czas niezmiernie krótki.

[vii] Nader ciekawe uwagi na temat „geocentryzmu” panującego w chemii podaje prof. J. Chodaków (w 6. numerze „Prirody” z 1963 r., wydawanej przez Ak. Nauk ZSRR). Zwraca on uwagę na względność charakterystyki pierwiastków, gdyż wyraża ona jedynie stosunek danego pierwiastka do innych. Tak np. względnym pojęciem jest „palność”: uważamy wodór za palny, gdyż pali się w atmosferze tlenu. Gdyby atmosfera Ziemi składała się z metanu, jak atmosfery wielkich planet, wodór uważalibyśmy za gaz niepalny, a tlen — za palny. Podobnie ma się rzecz z kwasami i zasadami: przy zamianie wody na inny rozpuszczalnik, substancje, występujące w środowisku wodnym jako kwasy, stają się zasadami, słabe kwasy, stają się silnymi itp. Nawet miarą Mttietaliczności” pierwiastka, tj. stopnia, w jakim manifestuje on własności metali, jest stosunek danego pierwiastka do tlenu. Tlen, jak zauważył kiedyś Berzelius, jest osią, wokół której obraca się cała nasza chemia. Tlen zajmuje jednak stanowisko wyjątkowe na Ziemi, a nie w zestawieniu wszystkich istniejących pierwiastków. To, że na Ziemi jest go szczególnie wiele, zadecydowało o powstaniu takiej „geocentrycznej” chemii, jaką się posługujemy. Gdyby skorupa Ziemi składała się z innych pierwiastków, a wklęsłości jej wypełniły inne ciecze niż woda, mielibyśmy odmienną klasyfikację pierwiastków i ich własności chemiczne ocenialibyśmy całkiem odmiennie. Na planetach typu Jowisza azot zastępuje tlen w roli pierwiastka o ujemnym ładunku elektrycznym; na podobnych planetach tlen, ze względu na jego rzadkość, nie może mieć poważniejszego znaczenia. Wodę zastępuje na takich ciałach amoniak, powstający z połączenia się wodoru z azotem; wapienie — amidocjanek wapnia, kwarc — związki azotowe krzemu i glinu itp. Odmienna musi być też meteorologia planety „azotowej”, a całokształt owych związków bez wątpienia w decydujący sposób musi też wpływać na procesy samoorganizacji (bioewolucji) w takich środowiskach, przez co powstawać mogą hipotetyczne (na razie), bezbiałkowe organizmy żywe.

[viii] W rzeczywistości nie ma „układów prostych”. Wszystkie są złożone. W praktyce można jednak tę złożoność pomijać, ponieważ nie ma wpływu na to, na czym nam zależy. W zwykłym zegarze, składającym się z cyferblatu, sprężyny, włosa, kółek zębatych, zachodzą procesy krystalizacji, zmęczenia materiału, korozji, przepływu ładunków elektrycznych, rozszerzania się części lub kurczenia itp. Procesy te nie mają praktycznie wpływu na działanie zegarka jako maszyny prostej, służącej do pomiaru czasu. Analogicznie pomijamy tysiące parametrów dających się wyróżnić w każdej maszynie i w każdym przedmiocie, ma się rozumieć, do czasu: ponieważ te parametry, istniejące realnie, choć nie uwzględniane przez nas, zmieniają się z czasem tak bardzo, że maszyna nie może już działać. Nauka polega na wykrywaniu zmiennych istotnych i jednoczesnym pomijaniu zmiennych nieistotnych. Maszyna złożona to taka, której bardzo wielu parametrów nie wolno pominąć, bo one wszystkie w doniosły sposób współuczestniczą w jej działaniu. Taką maszyną jest np. mózg. Nie znaczy to, by podobna maszyna, jeśli jest regulatorem, jak mózg, musiała uwzględnić wszystkie parametry. Tych można wyróżnić ilość praktycznie nieskończoną. Gdyby mózg miał je uwzględniać, nie mógłby sprawować swych czynności. Mózg „nie musi” uwzględniać parametrów poszczególnych atomów, protonów, elektronów, z których jest zbudowany. Złożoność mózgu, jak w ogóle żadnego regulatora, czy, szerzej, maszyny, nie jest jego zaletą, ale złem koniecznym raczej. Jest odpowiedzią konstruktorki organizmów, ewolucji, na złożoność środowiska, w którym one bytują, bo tylko wielka różnorodność regulatora może się sprawić z wielką złożonością otoczenia. Cybernetyka jest nauką o tym, jak regulować pomimo złożoności systemów realnych ich stan i dynamikę.

[ix] Aczkolwiek może się to wydać niezwykłe, na temat, czym właściwie jest teoria naukowa, istnieje bardzo wiele sprzecznych poglądów. I to nawet w obrębie jednego kręgu światopoglądowego. Poglądy samych twórców nauki nie są tutaj wcale bardziej wiarygodne od poglądów wielkiego artysty na jego własną metodę kreacyjną. Motywy psychologiczne mogą stanowić źródła wtórnej racjonalizacji drogi myślowej, której sam jej autor odtworzyć dokładnie nie potrafi. Tak np. Einstein był całkowicie przeświadczony o obiektywnym i niezależnym od człowieka istnieniu świata zewnętrznego, jak również o tym, że człowiek może poznać plan jego budowy. Można to wszakże rozumieć rozmaicie. Zapewne, każda nowa teoria stanowi krok naprzód w stosunku do poprzedniej (teoria grawitacji Einsteina w stosunku do teorii Newtona), ale z tego nie wynika w sposób konieczny, że istnieje, tj. może istnieć „teoria ultymatywna”, która będzie stanowiła koniec drogi poznania. Postulat unifikacji zjawisk w jednolitej teorii (w teorii pola na przykład) zdaje się sprawdzać w przebiegu ewolucji fizyki klasycznej, która od teorii obejmujących odrębne dziedziny zjawisk szła ku oglądom coraz bardziej całościowym. Jednakże nie musi tak być i w przyszłości: nawet stworzenie jednolitej teorii pola, obejmującej zarówno zjawiska kwantowe, jak i grawitacyjne, nie byłoby dowodem prawdy (że postulat jednolitości spełniany jest przez Naturę), ponieważ nie można poznać wszystkich zjawisk, a więc i dowiedzieć się, czy taka nowa (nie istniejąca) teoria także je obejmuje. Zresztą, uczony nie może pracować z myślą, że stwarza tylko pewne ogniwo przemijające, przejściowe procesu poznania, chociażby skądinąd takich właśnie trzymał się poglądów filozoficznych. Teoria jest „prawdziwa przez jakiś czas” — na to wskazuje cała historia nauki. Potem ustępuje teorii następnej. Jest zupełnie możliwe, że istnieje jakaś wartość graniczna konstrukcji teoretycznych, której umysł ludzki nie potrafi przekroczyć s a m, ale że będzie to mógł uczynić z pomocą, powiedzmy, „wzmacniacza inteligencji”. W takim razie otwiera się—dalsza droga postępu — przy czym znów nie wiadomo, czy i budowie „wzmacniaczy” nie staną w końcu na przeszkodzie, na jakimś stopniu złożoności, prawidłowości obiektywne, już nie do przekroczenia, tak jak nie do przekroczenia jest np. szybkość światła.

[x] Pośród systemów, badanych przez cybernetykę techniczną, wyróżnia się ich klasę, przypominającą ogólnymi założeniami konstrukcyjnymi mózg tak dalece, że nazywa się je „biologicznymi”. Są to układy, które mogły powstać na drodze naturalnej ewolucji. Nie mogła tak powstać żadna z budowanych maszyn, ponieważ nie są one zdolne ani do samodzielnego istnienia, ani do autoreprodukcji. „Metodą ewolucyjną” może powstać tylko układ biologiczny, czyli taki, który w każdym momencie swego istnienia przystosowany jest do otoczenia. Układ taki konstrukcją wyraża nie tylko te cele aktualne, jakim służy, ale ukazuje zarazem drogę, jaka została przebyta ewolucyjnie, aby mógł powstać. Tryby, druty, guma itp. nie mogą się same połączyć w prądnicę. Organizm wielokomórkowca powstaje z jednej komórki nie tylko dlatego, ponieważ wymagają tego aktualne zadania życia, ale i dlatego, ponieważ jednokomórkowce istniały przed tkankowcami i mogły się łączyć w zespoły (kolonie). Wskutek tego, organizmy biologiczne są jednorodne, w przeciwieństwie do maszyn zwykłych. Regulator biologiczny może dzięki temu działać nawet bez wszelkiej lokalizacji czynnościowej.

Oto przykład z Cybernetyki technicznej Iwachnienki. Na cybernetycznym „żółwiu” osadzamy maszynę cyfrową. Nie ma ona żadnych „receptorów”, a tylko urządzenie, które mierzy jakość jej działania. Taki „żółw” będzie, poruszając się po sali, szukał miejsca, gdzie ciepłota, oświetlenie, wibracje itp. zakłócenia wpływają na jakość pracy maszyny w sposób możliwie najsłabszy. Układ ten nie ma „zmysłów”, nie „postrzega” światła, temperatury, itd. Wyczuwa obecność takich bodźców „całym sobą” i dlatego zaliczamy go do typu biologicznego. Gdy zmiana ciepłoty niekorzystnie wpłynie na pewną część maszyny, aparat, mierzący jakość działania, obserwując jej spadek, uruchomi żółwia, który pocznie błądzić, szukając „lepszego” miejsca. Gdzieś indziej wibracja zakłóca pracę innej części maszyny, lecz reakcja będzie taka sama: żółw oddali się, szukając warunków optymalnych. Układ nie musi być programowany z uwzględnieniem wszelkich możliwych zakłóceń: konstruktor może nie przewidzieć np. wpływów elektromagnetycznych, ale jeśli pogorszą funkcję maszyny, „żółw” będzie szukał warunków dogodnych dla „życia”. Taki układ działa metodą prób i błędów, zawodną, jeżeli problem jest zbyt skomplikowany lub zakłócenie działa szkodliwie ‘z opóźnieniem (radioaktywność np.). Ponieważ przystosowanie nie zawsze jest jednocznaczne z poznaniem, regulator biologiczny nie musi przedstawiać „najdoskonalszego modelu maszyny gnostycznej”. Jest całkiem możliwe, że ideału takiej maszyny trzeba poszukiwać nie w klasie regulatorów biologicznych, ale w jednej z innych klas układów złożonych, którymi zajmuje się cybernetyka.

[xi] Probabilistyczno–statystyczne ujęcie metody informacyjnego przekazu pozwala, w sposób prawie matematycznie ścisły, przybliżyć się do problemu dwupłciowości oraz szkodliwych skutków chowu wsobnego (inbreeding), tj. krzyżowania blisko spokrewnionych osobników. Prawdopodobieństwo bowiem, że pewna ilość osobników posiada takie same uszkodzenia genetyczne (recesywne mutacje), jest tym większe, im bliżej są one spokrewnione, a gdy pochodzą od tych samych rodziców, prawdopodobieństwo to jest największe. Wtedy też możliwość powstania fenotypowych mutantów jest największa — o ile, oczywiście, genetyczna informacja omawianych osobników była uszkodzona; chów wsobny osobników, których genotypy pozbawione są uszkodzeń, żadnych skutków ujemnych wywołać nie może.

Jeżeli mamy szereg rozmai tych linotypów, drukujących teksty matematyczne tego rodzaju, że każdy błąd składu powoduje istotne zniekształcenie treści, to jasne jest, że zestawiając z sobą te same teksty, drukowane przez rozmaite linotypy, uzyskamy materiał, umożliwiający pełną rekonstrukcję informacji pierwotnej, ponieważ jest wysoce nieprawdopodobne, aby rozmaite maszyny popełniały błędy w tych samych miejscach tekstu. Jeśli natomiast mamy szereg linotypów idealnie takich samych, które wskutek swoistych wad konstrukcji popełniają zawsze analogiczne błędy, to zestawienie („sczytywanie”) tekstów na nich złożonych nie umożliwi zrekonstruowania informacji, bo ulega ona uszkodzeniu w tych samych miejscach. Oczywiście, jeśli linotypy w ogóle nie popełniają błędów, problem upada, to samo dotyczy też i przesyłania informacji biologicznej.

[xii] „Okazać niesprzeczność pewnego systemu to tyle, co dowieść, że nie istnieje w nim żadne zdanie A takie, iż w tym systemie można wydedukować zarówno A, jak też nie–A.

Udowodnić zupełność pewnego systemu, to znaczy udowodnić, że dla dowolnego zdania tego systemu — bądź ono, bądź jego negacja daje się dedukcyjnie wyprowadzić”( M. Markowi ć: Formalizm w logice współczesnej. Warszawa 1962, s. 52 (notka)).

[xiii] Jakkolwiek fascynująca i obiecująca może się wydać optymiście perspektywa uruchomienia „hodowli informacji”, zjawisko to, urzeczywistnione cywilizacyjnie, na pewno nie stanowi jakiegoś ostatecznego panaceum na wszystkie problemy. Po pierwsze „hodowla” może zaostrzyć nawet, a nie stłumić, kryzys, związany z powstawaniem nadmiaru informacji. Ludzkości obce były dotąd kłopoty nadmiaru (oprócz nadmiaru klęsk i plag…), dlatego nie bardzo możemy sobie wyobrazić skuteczne metody postępowania w sytuacjach, kiedy otworem stoi nie jedna droga dla działania, ale ich setki, a może i tysiące naraz. Kiedy można by np. (jak powiadomi nas o tym aktualny „zbiór informacji” wyprodukowanej przez „hodowlę”) działać w sposób A, B, C, D, E, itd., itd., przy czym każde z takich działań zarazem obiecuje bardzo wiele, ale i wyklucza automatycznie wszystkie inne działania (powiedzmy, dla przykładu, że człowieka można przekonstruować biologicznie tak, by stał się istotą prawie niezniszczalną, ale zarazem zmusi to do bardzo radykalnego hamowania przyrostu naturalnego, bo skoro nikt lub prawie nikt nie umiera, świat w rosnącym tempie staje się coraz bardziej ciasny). Kryteria obecnie często o postępowaniu praktycznym decydujące mogą się zdezaktualizować (np. kryterium gospodarczej opłacalności albo oszczędności energetycznej przestaje działać, kiedy źródłem energii jest materialny proces praktycznie nie do wyczerpania). Kiedy, poza tym, potrzeby elementarne są zaspokajane w pełni, problem, „co dalej”, czy stwarzać nowe potrzeby, a jeśli tak, to jakie, wysuwa się na plan pierwszy. Jasne, że żadna „hodowla informacji” nie może udzielić odpowiedzi na takie dylematy, ponieważ „hodowla” taka przedstawia jedynie alternatywy postępowania, wyjawia, co można zdziałać, ale nigdy, czy działać należy. Decydowanie o tym nie może ulec mechanizacji; byłoby to możliwe tylko skutkiem takiego przekształcenia mentalności społecznej, że stałaby się ona obca w naszym rozumieniu temu, co ludzkie. Wzrost „swobody informacyjnej”, czyli ilości dróg możliwego postępowania, implikuje zwiększenie odpowiedzialności za pobierane decyzje, za akty wyboru. Rezygnacja z takiego wyboru, fizykalnie oczywiście możliwa (elektromózg–władca, decydujący o tym, co począć z ludzkością), wydaje się nie do przyjęcia dla pobudek pozafizykalnych.

Po wtóre, „hodowla informacyjna” nie może dostarczać naprawdę „wiedzy o wszystkim”, „wiedzy wszelkiej”, „wiedzy, jaka w ogóle jest możliwa”. Można sobie oczywiście przedstawić całą hierarchię, całą strukturę złożoną ogniw informacjonośnych i informacjozbiorczych, z których jedne pełnią rolę elementarnych „czerpaków” wiedzy o faktach i ich związkach ze świata, inne badają związki związków, szukają prawidłowości wyższego rzędu, jeszcze inne zajmują się segregowaniem rezultatów, dostarczanych przez tamte, aby na „wyjściu” całej owej gigantycznej piramidy; zwrotnych sprzężeń pojawiały się tylko takie informacje, które mogą, w jakkolwiek,: szerokim zakresie, okazać się użyteczne dla cywilizacji, która ową machinę ewolucyjną uruchomiła. Ostatecznie jednak sama działalność owej piramidy—hodowli nie może oderwać się zbyt daleko od tego, co stanowi szeroko rozumianą treść materialną i duchową życia cywilizacji na danym etapie rozwoju. W przeciwnym razie, „oderwawszy się” od swej macierzy ludzkiej, taka hodowla produkowałaby informacje nie tylko nieużyteczne, ale i niezrozumiałe, nie dające się przełożyć na język, jakim, posługuje się cywilizacja. Zresztą to zjawisko „oderwania”, „skoku w przyszłość”, „erupcji informacyjnej” także dlatego byłoby katastrofą raczej aniżeli rzeczywistym rozwojowym skokiem, ponieważ z chwilą zbyt dalekiego wysforowania się „informacyjnej hodowli” przed front aktualnej wiedzy cywilizacyjnej, zatracają się i znikają kryteria odsiewu informacji nieistotnej, a tym samym „hodowla” sama przekształca się znienacka w „bombę” może już nie mega–lecz gigabitową, w molocha, który produkowanymi oceanami informacji stwarza najosobliwszy z możliwych potopów.

Aby to lepiej zrozumieć: powiedzmy, że w neolicie, a niechby i we wczesnym średniowieczu, zaczyna działać „hodowla informacyjna”, która dostarcza wiedzy o technologiach XX wieku, o technice atomowej, o cybernetyce, radioastronomii itd., itp. Cywilizacja ówczesna, ponad wszelką wątpliwość, nie byłaby w stanie ani przyjąć, ani pojąć, ani strawić, ani zrealizować drobnego ułamka całej tej informacyjnej lawiny. W tym mniejszej mierze umiałaby powziąć właściwe, tj. rozsądne decyzje taktyczne i strategiczne (czy produkować nuklearne bronie, czy nie, czy praktykować nowe technologie na szerokim froncie, czy też ograniczyć się do nielicznych, a nawet tylko do jednej itp.).

„Hodowla informacyjna!’ — jeśli w ogóle możliwa do urzeczywistnienia — jest to, w najbardziej optymistycznym ujęciu, urządzenie, „podłączone do świata”, które, badając go w specyficzny sposób, docieka tego, co jest materialnie możliwe (co jest do urzeczywistnienia). A więc, taka „hodowla” może wykryć, że daje się zbudować laser, neutrinowa przetwornica energetyczna, że w określony sposób można (powiedzmy) zmienić tempo upływu czasu, pole grawitacyjne, że procesy pozornie nieodwracalne (jak pewne biologiczne np.) można w taki to a taki sposób odwrócić, i tak dalej. Hodowla taka wydaje się cenna szczególnie, jeżeli dawać jej konkretne, jakkolwiek tylko ramowo formułowane, zadania. Natomiast pozostawiona samej sobie, rychło wytworzy taki nadmiar informacji, w którym ugrzęźnie i ona, i jej twórcy. Cały dowcip w tym bowiem, że jest to hodowla „bezmyślna”, że jednakowo produkuje informacje o związkach zjawisk niesłychanie dla cywilizacji istotnych^że, powiedzmy, można podróżować przez galaktyki w taki a taM sposób), jak i o związkach całkiem nieistotnych (że np. chmury Jowisza można zabarwiać na kolor słomkowy). Otóż, dopóki selektory tej informacyjnej hodowli znajdują się pod aktywnym wpływem rozumnych istot, dopóty mogą skutecznie dokonywać wyboru informacji. Gdyby jednak oddaliły się (oderwały się) od metod takiej racjonalnej selekcji, przez wkroczenie w obszar „wszechinformacji”, wiadomości o wszelkich faktach, potop informacyjny staje się nieuchronny. Trzeba bowiem uświadomić sobie lawinowy charakter narastania informacji wszelkiej, także i użytecznej. Powiedzmy, że „hodowla” wpada na trop możliwości urzeczywistnienia transplantacji mózgów z ciała jednej istoty w ciało innej; jeśli zajmie się tym problemem, spowoduje to wykrycie całego mnóstwa nowych faktów i zjawisk, całej „techniki przeszczepiania mózgów” itd. Cóż jednak z tego, jeżeli cały ów problem w ogóle danej cywilizacji nie interesuje? W efekcie hodowla łatwo może okazać się „zagwożdżona” masami całkiem zbędnej informacji. Proszę sobie tylko uzmysłowić, jak obszerne dziedziny technologii, fizyki, elektroniki, a także twórczości artystycznej, i to najróżnorodniejszej, obejmuje obecnie telewizja w skali światowej. Gdyby „hodowla” mogła wpaść na trop jakiegoś innego urządzenia, gotowego pełnić zbliżoną rolę w łonie cywilizacji, decyzję o tym, czy nad taką techniką w ogóle warto pracować, czy jest ona godna urzeczywistnienia, tę decyzję należy powziąć już w zaraniu gromadzenia wiadomości, w przeciwnym razie „hodowla” będzie producentem miliarda „możliwych wynalazków”, z których nikt nie skorzysta. Warto dodać, że problemem, spokrewnionym z produkcją informacji naukowej, szczególnie dziś palącym, chociaż prima facie jak gdyby trywialnym, jest zestrój technik, używanych dla odnajdywania — przez zainteresowanych — takiej informacji, która została już z Natury „ekstrahowana” i utrwalona w druku. Problem ten wynika m. in. z wykładniczego tempa wzrostu bibliotek specjalistycznych, a wszelkie stosowane środki zaradcze — publikowanie informacji skrótowych (zwanych „abstraktami”), streszczeń, tymczasowych doniesień itp. — nie są w stanie zapewnić skutecznej dostawy informacji istotnych właściwym pod względem kompetencji osobom. Jeżeli bowiem powtarzanie eksperymentów już gdzieś przeprowadzonych okazuje się zabiegiem tańszym i szybszym od poszukiwania odpowiednich publikacji, jeżeli uczony może przypuszczać, że ważne dlań informacje są ukryte nie w „łonie Natury”, lecz tkwią na półkach niewiadomych bibliotek, pod znakiem zapytania staje sam proceder badawczy, skoro jego rezultaty, zawalone stosami papieru zadrukowanego, nie mogą dotrzeć do tych, którzy najbardziej ich potrzebują. Ze szkodliwości tego zjawiska czasem i zainteresowani nie zdają sobie w pełni sprawy, ponieważ na ogół udaje im się jednak śledzić publikacje w zakresie własnej dyscypliny. Jednakowoż wiadomo, że odkrywczo najpłodniejsze jest krzyżowanie informacji pochodzącej z rozmaitych dziedzin, przez co bardzo być może, że już obecnie znajduje się w uczonych księgozbiorach kontynentów mnóstwo wiadomości, które, po prostu zestawione tylko ze sobą, skonfrontowane przy ogarnięciu ich przez kompetentnego fachowca, dałyby początek nowym i cennym uogólnieniom. Czemu właśnie wzrost specjalizacji, ich wewnątrzdyscyplinowe a stale postępujące różnicowanie się hamująco przeciwdziała. Fach bibliotekarski nie może już zastąpić kompetencji prawdziwie pierwszorzędnej w rozumieniu specjalistycznym, żaden bowiem bibliotekarz nie jest w stanie orientować się w tym, jakie z wyników odległych od siebie nauk powinny być w pierwszej kolejności kierowane do określonych badaczy. Tym bardzie j nie może zastąpić uczonego bibliotekarza — zautomatyzowany katalog czy dowolna z dostępnych dziś technik samoczynnych, ponieważ sposoby algorytmiczne okazują wciąż swoją bezradność w selekcjonowaniu „lawiny informacyjnej”. Powiedzenie, że odkryć dokonuje się dziś dwukrotnie — raz publikując je, a drugi raz, gdy już (może dawno) opublikowane doniesienie odkryje populacja fachowców, stało się obiegowym aforyzmem. Jeśli dzisiejsze techniki utrwalania, chronienia i adresowania informacji nie ulegną rewolucyjnemu usprawnieniu w nadchodzącym półwieczu, grozi nam wizja zarazem groteskowa i obłędna — świata zawalonego górami książek i ludzkości obróconej w zagonionych bibliotekarzy. Metodologię, jako zbiór dyrektyw poszukiwania wiedzy w świecie zastąpić winna—na tym „bibliotecznym froncie” — jakaś „ariadnologia”, przewodniczka po labiryntach wiedzy już zgromadzonej. Maszyna–bibliotekarz, rozsyłająca właściwe informacje właściwym ludziom nie może być urządzeniem „nierozumiejącym”, opartym np. na analizie częstościowej (a są takie próby — wykrywania „cenności” prac przez liczenie, jak często się na nie powołują specjaliści w bibliografiach własnych publikacji, albo też — mechanicznego adresowania, poprzez odsiew prac, w których pewne terminy powtarzają się z dostateczną częstotliwością). Wykazały bowiem badania, że nawet specjalista z dziedziny pokrewnej nie potrafi z merytoryczną ścisłością rozsegregować prac pewnego zakresu, jak to podawał np. J. Kemeny. Lecz „rozumiejąca” maszyna–bibliotekarz musiałaby — siłą rzeczy — być, dzięki doskonale wszechstronnemu rozeznaniu — lepszym fachowcem od wszystkich razem poszczególnych badaczy… Oto paradoksy, jakimi brzemienna jest (stale pogarszająca się) sytuacja. Wydaje się, że kryzys dystrybucji informacyjnej zmusi w przyszłości do zaostrzenia publikacyjnych kryteriów, aby ich odsiew wstępny udaremniał zalewanie fachowego rynku — bezwartościowymi pracami, ogłaszanymi dla uzyskania tytułu naukowego czy z przyczyn ambicjonalnych. Wolno nawet sądzić, iż ogłaszanie prac banalnych zostanie uznane wreszcie za szkodliwe, więc za przekraczanie zasad etyki zawodowej uczonego, skoro tworzą one po prostu „szum”, utrudniający odbiór informacji cennych, życiowo ważnych dla dalszego rozwoju wiedzy. Hodowla informacji, uruchomiona w nieobecności sprawnego „sita adresującego”, doprowadziłaby naj oczywiście j do papierowego potopu i w tej katastrofie nadmiaru wszelka praca dalsza okazałaby się niemożliwa. Tym pilniejszym więc zadaniem jest automatyzacja zabiegów poznawczych, choćby na bibliotekarsko–wydawniczym poziomie.

[xiv] Fragmentaryczna krytyka ewolucyjnych rozwiązań konstrukcyjnych może wzbudzić miejscami wrażenie „paszkwilu z ignorancji”, gdyż nie znamy dokładnie do dzisiaj biomechaniki narządowej (np. całokształtu niezmiernie skomplikowanej pracy serca). Na drodze stworzenia ścisłych modeli matematycznych struktur biologicznych postawiono dopiero pierwsze kroki, tak na przykład N. Wiener i A. Rosenblueth stworzyli teorię matematyczną fibrylacji mięśnia sercowego. Otóż, krytyka konstrukcji, której dobrze nie rozumiemy, wygląda na bezzasadną i przedwczesną. Niemniej nasza bardzo niedokładna wiedza o złożoności takich i podobnych rozwiązań ewolucyjnych nie może przysłonić tego, że w licznych przypadkach biologiczna złożoność jest skutkiem uporczywego przenoszenia raz utworzonej formuły narządowej z jednego typu organizmów do innych, powstałych później. Konstruktor, który by chciał uzależnić całą przyszłość techniki kosmonautycznej wyłącznie od silników rakietowych na paliwa chemiczne, musiałby w konsekwencji budować statki i urządzenia napędowe o niesamowitych rozmiarach i równie niesamowitej złożoności. Mógłby też na tej drodze osiągnąć niewątpliwe sukcesy, ale byłyby to raczej pokazy technologicznej ekwilibrystyki aniżeli rozwiązania najbardziej racjonalne, skoro mnóstwa trudności i komplikacji dałoby się uniknąć przez radykalne przekreślenie idei napędu chemicznego i rewolucyjne przejście do silników innego typu (jądrowych, anihilacyjnych, magneto–hydrodynamicznych, jonowych lub temu podobnych).

Złożoność, będącą skutkiem swoistego konserwatyzmu idei leżącej u podstaw działania twórczego, stanowiącą wynik „inercji konceptualnej”, niechęci (lub niemożliwości) zmian skokowych i radykalnych, jesteśmy zatem w prawie uważać za zbędną z punktu widzenia konstruktora, który ma na oku rezultaty najlepsze, nie oglądając się na takie założenia, których przyjmować nie musi. Konstruktor rakiet współczesny, podobnie jak ewolucja, musi pokonywać swoje problemy komplikacjami, zbędnymi ze stanowiska przyszłej technologii (jądrowej na przykład). Jednakże konstruktor porzuci wszystkie te komplikacje, gdy tylko dalszy rozwój technologii umożliwi mu urzeczywistnienie napędu jądrowego, fotonowego lub innego niechemicznego. Ewolucja natomiast, dla ukazanych w tekście i zrozumiałych względów, nie może „porzucać” żadnych rozwiązań w sposób równie radykalny. Można powiedzieć całkiem ogólnie, że nie sposób się po niej spodziewać — po kilku miliardach lat istnienia i działania —jakichś rozwiązań całkiem nowych, a dorównujących doskonałością tym, które stworzyła w zaraniu swojej działalności. I ta właśnie sytuacja zezwala na krytykę konstrukcyjnych jej rozwiązań, nawet jeżeli nie pojmujemy należycie ich złożoności, ponieważ uważamy ową złożoność za konsekwencję urzeczywistnionej przez ewolucję metody kreacyjnej, z którą mogą konkurować metody inne, zarówno prostsze, jak i bardziej skuteczne. Skoro ewolucja sama uruchomić ich nie może, tym gorzej dla niej — ale być może — tym lepiej dla człowieka — konstruktora przyszłości.

Zagadnienie to ma, poza ściśle konstruktorskim, także inny całkiem aspekt, którego w tekście omal nie poruszam. Człowiek (jest to w istocie niejaka przedłużenie powyższej uwagi) nie zna sam siebie dokładnie — ani w planie biologicznym, ani w psychicznym. Niewątpliwie w jakiejś mierze słuszne jest powiedzenie (które stało się tytułem książki A. Carrela), że „człowiek to istota nieznana” (sobie, rzecz jasna). Zagadkowe i nie wyjaśnione sprzeczności kryje nie tylko jego ciało, jako „maszyna biologiczna”, ale też jego umysł. Otóż można zapytać, czy wolno w ogóle rozważać poważnie ewentualność przekształcenia, „naturalnego modelu Homo Sapiens” —przed dokładnym poznaniem jego rzeczywistej budowy i wartości? Czy zabiegi, podejmowane na plazmie dziedzicznej (a to tylko skromny, pierwszy z brzegu przykład) nie mogą, jednocześnie z likwidacją jakichś szkodliwych cech genotypowych, zlikwidować jakichś cech potencjalnie cennych, o których nic nie wiemy?

Byłoby to „biologiczno—konstruktorskie”, powtórne podjęcie tematu, który (nieco bardziej tradycyjnie) obejmuje spory eugeników z ich przeciwnikami. Czy np. likwidacja epilepsji nie może pozbawić nas epileptyków na równi z Dostojewskimi?

Jest rzeczą zastanawiającą, jak bardzo abstrakcyjnie wiedzie się podobne spory. Wszelkie w ogóle działanie, jak jest o tym mowa w naszej książce (a na pewno nie rościmy sobie pretensji do autorstwa tego „odkrycia ‘), opiera się na wiedzy niepełnej, gdyż taka jest istota świata, w którym żyjemy. Gdybyśmy zatem chcieli czekać z „rekonstrukcją rodzaju” do uzyskania „pełnej” o nim wiedzy, czekalibyśmy przez całą wieczność. Częściowa nieprzewidywalność skutków wszelkiego działania, a wiec jego potencjalna ułomność, dyskredytując je totalnie w ujęciu pewnych doktryn filozoficznych, stała się w ich obrębie fundamentem tez o „wyższości niedziałania nad działaniem” (przy czym motyw to bardzo stary, który można prześledzić od Czuang–tsego na przestrzeni kontynentów i wieków). Jednakże krytyki takie i apoteoza „niedziałania” możliwe są, między innymi, dzięki temu, że doszło przecież do swoistych, tysiącwiekowych działań, w których toku powstała cywilizacja, a wraz z nią —mowa i pismo (które umożliwiają formułowanie wszelkich w ogóle sądów i myśli). Filozof — apologeta skrajnego konserwatyzmu (niedziałania, np. w sferze biologicznej, technologicznej), jest jak syn milionera, który nie musząc dzięki nagromadzonej przez ojca fortunie troszczyć się o zdobycie środków do życia, krytykuje stan posiadania. Gdyby był konsekwentny, winien porzucić ową fortunę; przeciwnik „biokonstruktorstwa” nie może ograniczyć się ze swojej strony do opozycji wobec „planów rekonstrukcji człowieka”, ale winien, zrezygnowawszy z całokształtu cywilizacyjnych osiągnięć, z medycyny, techniki itd., udać się na czworakach do lasu. Wszystkie bowiem rozwiązania i metody, których nie krytykuje, którym się nie przeciwstawia (jak np. właśnie metody terapii lekarskiej), ongiś były zwalczane ze stanowisk dosyć bliskich jego dzisiejszemu stanowisku i tylko upływ czasu wraz z ich skutecznością zadecydował o tym, że zostały wcielone do sumy cywilizacyjnego dorobku, przez co nie budzą już niczyjego sprzeciwu.

Nie mamy bynajmniej zamiaru uprawiania tu, ani gdzie indziej, apologii „rekonstrukcji rewolucyjnych”. Uważamy po prostu, że wszelkie spory z historią są bezprzedmiotowe. Gdyby człowiek mógł był dużo wcześniej kontrolować i regulować świadomie rozwój swej cywilizacji, byłaby może doskonalsza, mniej paradoksalna i bardziej sprawna niż istniejąca, ale to właśnie nie było możliwe, ponieważ tworząc i rozwijając ją, rozwijał zarazem i modelował samego siebie, jako istotę myślącą społecznie.

Przeciwnik biokonstruktorstwa może zauważyć, że niepowtarzalne istnienie jednostkowe jest bezcenne, a przeto nie wolno nam, ignorantom, manipulować genotypami, uwalniać je od jednych cech, uznanych za szkodliwe, wprowadzać inne itd. Zechce on jednak zauważyć, że racje jego są do udowodnienia tylko w świecie tyleż nie istniejącym, co odmiennym od naszego. W naszym bowiem, kiedy wiodła do tego globalna sytuacja polityczna, atmosfera Ziemi była przez dziesiątki lat zatruwana opadami radioaktywnymi, przy czym większość wybitnych genetyków i biologów podkreślała, że musi to pociągnąć za sobą powstanie bardzo licznych mutacji w nadchodzących pokoleniach, że tym samym każdy próbny wybuch atomowy oznacza określoną ilość deformacji, schorzeń i przedwczesnych śmierci, spowodowanych nowotworami, białaczką itp. A przy tym owe wybuchy nie miały służyć niczemu innemu prócz zwiększania potencjału nuklearnego zainteresowanych stron. Ofiary tej polityki, która do dzisiaj kontynuowana jest przez niektóre państwa, mieniące się cywilizowanymi, liczyć się będą co najmniej w tysiące (prawdopodobnie raczej w dziesiątki tysięcy). Otóż w takim świecie żyjemy i w takim rozważamy kwestie biokonstruktorstwa. Nie można uważać, że wszystko, co stanowi rezultat globalnej niedomogi regulacyjnej, nie obciąża naszych sumień i naszego „cywilizacyjnego bilansu” i że nie bacząc na ów stan rzeczy, w dziedzinach przez nas w pełni kontrolowanych winniśmy postępować z doskonałą przezornością (która prowadzi prosto do absolutnego niedziałania).

Człowiek jest istotą „tajemniczą” tylko wówczas, jeśli przypiszemy mu jakiegoś ,autora”, tj. twórcę osobowego; wówczas liczne biologiczne i psychiczne sprzeczności ludzkiej natury implikują tajemne a niepojęte dla nas motywy owego naszego „sprawcy”. Jeśli natomiast uznamy, że powstaliśmy skutkiem milionoletnich prób i działań ewolucyjnych, „tajemniczość” redukuje się po prostu do katalogu rozwiązań, które były możliwe do urzeczywistnienia w danych warunkach ewolucyjno–historycznych, i możemy wtedy przystąpić do rozważenia, w jaki też sposób należałoby przestroić procesy samoorganizacji, aby usunąć to wszystko, co przynosi naszemu gatunkowi cierpienia.

Wszystko to nie oznacza, rzecz jasna, jakobyśmy zrównywali w ten sposób człowieka z dowolnym przedmiotem materialnym do skonstruowania lub z dowolnym produktem technicznym do udoskonalenia. Aura odpowiedzialności moralnej nie może opuścić sfery biokonstruktorstwa, a jego dziedzina jest obszarem olbrzymiego ryzyka (choć może nie mniejszych nadziei). Gdy jednak człowiek tak bardzo wiele cierpień i mąk przysparzał sobie w minionych wiekach (i nie tylko wtedy) skutkami nie kontrolowanych działań cywilizacyjno—społecznych, czas najwyższy podjąć ryzyko świadomie i w poczuciu pełnej odpowiedzialności, kiedy tylko pozwoli na to zasób nagromadzonej wiedzy, jakkolwiek będzie to wiedza niepełna.

[xv] Przedstawiona w tekście „antystatystyczna postawa” konstruktora jest już dzisiaj właściwie przestarzała. Niezawodności urządzeń nie można omawiać niezależnie od technik statystycznych. Zmusił do tego postęp technologiczny, w którym produkcji seryjnej (masowej) towarzyszy wzrost złożoności wytwarzanych urządzeń. Jeśli każdy z elementów systemu, złożonego z 500 elementów, jest niezawodny w 99%, to system jako całość jest niezawodny zaledwie w l procencie (o ile wszystkie te elementy są życiowo ważne dla funkcjonowania systemu). Maksymalna niezawodność do osiągnięcia jest proporcjonalna do kwadratu liczby elementów, wskutek czego uzyskanie produktu niezawodnego jest niemożliwe, zwłaszcza kiedy stanowi on system wysoce złożony. Systemy „podłączone” do człowieka jako regulatora (samolot, samochód) są mniej wrażliwe na uszkodzenia, ponieważ plastyczne zachowanie człowieka umożliwia często kompensację wypadającej funkcji. Natomiast w systemie „bezludnym”, jak pocisk międzykontynentalny czy, ogólniej, układ automatyczny (maszyna cyfrowa), nie ma mowy o podobnej plastyczności, i dlatego ich mniejsza niezawodność zależy nie tylko od większej w nich ilości elementów oraz od nowości realizowanej technologii, ale także od braku „buforującego” wypadowe objawy uszkodzeń — człowieka. Teoria niezawodności w związku z lawinowym postępem konstrukcyjnym, jest dziś obszerną nauką<Na przykład: D.N. Chorafas: Procesy statystyczne i niezawodność urządzeń. Wydawn. Naukowo–Techniczne, Warszawa 1963.>. Metody, jakimi się dzisiaj posługuje, są na ogół w stosunku do końcowego produktu „zewnętrzne” (obliczenia, wielokrotne próby, badanie średniego czasu między błędami, badanie czasu starzenia się elementów, kontrola jakości itd.). Ewolucja stosuje także „kontrolę zewnętrzną” — jest nią selekcja naturalna, a ponadto metody „wewnętrzne”: dublowanie urządzeń, wbudowywanie w nie tendencji samonaprawczej lokalnej, jak i podlegającej wspomagająco–kierowniczej kontroli ośrodków hierarchicznie nadrzędnych, wraz z najważniejszym bodaj — stosowaniem urządzeń o maksymalnej plastyczności .jako regulatorów. Że mimo zasadniczej sprawności tych sposobów organizmy są tak często zawodne, wynika to w znacznej mierze z „niechęci” Ewolucji do stosowania dużej nadmiarowości informacyjnego przekazu konstrukcjotwórczego (jak mówi o tym reguła Dancoffa).

W gruncie rzeczy 99% wszystkich cierpień i schorzeń starości wynika z manifestowania się zawodności coraz to większej liczby układów organizmu (utrata zębów, mięśniowego napięcia, wzroku, słuchu, lokalne zaniki tkanek, procesy degeneracyjne itd.). W przyszłości główny kierunek przeciwdziałania zawodności urządzeń będzie zapewne w technice zbieżny z ewolucyjnym, z tą podstawową różnicą, że Ewolucja raczej „wbudowuje” konstrukcje „przeciwzawodne” w swoje twory, człowiek–konstruktor natomiast będzie raczej skłonny do stosowania metod zewnętrznych względem końcowego produktu, a to, by nie komplikować go nadmiernie ilością elementów. W ogóle kryteria działania są w obu wypadkach bardzo rozmaite — „koszty materiałowe”, dla przykładu, są dla Ewolucji nieistotne, więc ilość trwonionego materiału dziedzicznego (plemników, jaj) nie ma znaczenia, byle starczyła dla zachowania ciągłości gatunku. Badanie ewolucji poszczególnych narzędzi technicznych wykazuje, że okrzepnięcie sprawności działań (uzyskanie wysokiej niazawodności) jest procesem, zachodzącym daleko później od ustalenia się optymalnego rozwiązania ogólnego (w zasadzie, tj. planem ogólnym, samoloty lat trzydziestych, nawet dwudziestych, były bardzo podobne do współczesnych — jako maszyny cięższe od powietrza, unoszone dzięki sile nośnej wytwarzanej na skrzydłach, poruszane silnikiem spalinowym z zapłonem elektrycznym, z takim jak dziś systemem sterowania, itp.). Sukces przelotów nad oceanem nie był rezultatem powiększenia np. rozmiarów (bo i wówczas budowano samoloty wielkie, nawet nieraz większe od współczesnych); a jedynie uzyskanie wysokiej niezawodności funkcji, wówczas niedostępnej.

Ilość elementów, rosnąca w postępie wykładniczym, gwałtownie zmniejsza niezawodność urządzeń bardzo złożonych. Stąd olbrzymie trudności budowy urządzeń tak skomplikowanych, jak rakieta wielostopniowa lub maszyna matematyczna. Zwiększenie niezawodności przez dublowanie urządzeń i przesyłu informacji też ma swoje granice. Urządzenie najlepiej zabezpieczone wcale nie musi stanowić rozwiązania optymalnego. Jest z tym trochę jak z wytrzymałością liny stalowej: jeśli jest zbyt długa, to już nie pomoże żaden przyrost grubości, bo lina urwie się pod własnym ciężarem. Tak zatem — jeśli nie jakiś nieznany czynnik, to wykładniczym wzrostem zawodności spowodowana ułomność działania stawia granicę budowaniu układów nadzwyczaj złożonych (powiedzmy, elektrycznych maszyn cyfrowych o setkach miliardów lub o bilionach elementów).

Zachodzi nader istotne pytanie, czy kiedykolwiek będzie możliwe produkowanie urządzeń zdolnych do przekroczenia tego „progu niezawodności”, a więc sprawniejszych pod tym względem od rozwiązań ewolucyjnych? Wydaje się, że to nie jest możliwe. Analogiczne granice oczekują nas na wszystkich bodaj poziomach zjawisk materialnych, więc także w fizyce ciała stałego, w inżynierii molekularnej itp. Starzenie się na poziomie tkankowo—komórkowym uważane jest przez wielu biofizyków za kumulatywny efekt „elementarnych błędów molekularnych”, „lapsusów atomowych”, jakich się żywa komórka dopuszcza w trakcie swej egzystencji — przy czym owe „pomyłki” wyprowadzają w końcu układ, jako całość, poza granicę zmian odwracalnych. Jeśli tak jest, można by z kolei zapytać, czy statystyczność praw mikrofizyki, owa singularna niepewność wyników, jaką obarczony jest każdy, najprostszy fakt materialny, np. rozpad radioaktywnego atomu, łączenie się atomowych cząstek, pochłanianie tych cząstek przez jądra atomowe, nie wynika stąd, że wszystko, co się dzieje, jest „zawodne”, że więc nawet podejmowane jako swoiste „maszyny”, bo jako systemy przejawiające regularność zachowania, zarówno atomy, jak ich części „składowe” — protony, neutrony, mezony — nie są ani same elementami „niezawodnymi” tej konstrukcji, którą zwiemy Wszechświatem, ani też nie stanowią „niezawodnych urządzeń” jako molekuły chemiczne, jako ciała stałe, ciecze, gazy —jednym słowem, czy statystyczna zawodność działania nie leży u podstawy wszystkich wykrywanych przez Naukę praw Przyrody? I że Kosmos zbudowany jest wcale podobnie do Drzewa Ewolucji — w myśl zasady „Układ Pewny” (tj. względnie niezawodny) z „Elementów Niepewnych”? I że swoista „biegunowość” kosmicznej struktury (materia, antymateria, cząstki dodatnie, ujemne itd.) jest niejaka konieczna, bo żaden inny kosmos nie byłby możliwy — ze względu na czyhającą „zawodność działania”, która uniemożliwiłaby mu jakąkolwiek ewolucję, na zawsze utrwalając go w stadium „pierwotnego chaosu”? Może się wydawać takie (na poły fantastyczne, przyznajemy) postawienie problemu — antropomorfizującym, a przynajmniej, że otwiera wrota dyskusji nad „Inżynierem Kosmosu”, tj. „Sprawcą Wszystkiego”, ale tak nie jest, ponieważ ustaliwszy, że Ewolucja nie miała żadnego osobowego sprawcy, mimo to możemy omawiać jej konstruktorstwo, więc wspomnianą np. wyżej zasadę budowania względnie niezawodnych systemów przy użyciu części wysoce zawodnych.

[xvi] Ze względu na znaczne zainteresowanie problemami zjawisk pozazmysłowych nie od rzeczy może będzie dodać, co następuje. Ludzie z wielkim upodobaniem powtarzają historie „wieszczych snów”, jak również wypadki, jakie przytrafiły się im, bądź ich bliskim, mające dowodzić istnienia telepatii, kryptestezji itp. Otóż należy wyjaśnić, że opowieści takie, choćby i spisywane przez świadków naocznych, nie mają, z naukowego punktu widzenia, żadnej wartości. Odrzucenie ich przez naukę nie wynika bynajmniej, jak skłonni są sądzić niektórzy, z lekceważenia, jakie w ten sposób manifestuje uczony wobec „szarego człowieka”. Wynika ono po prostu z nakazów metody naukowej. Najpierw prosty przykład, wzięty z S. Browna: niech 500 psychologów w jakimś kraju pocznie badać metodami statystycznymi obecność telepatii Zgodnie ze statystyką, połowa spośród nich otrzyma rezultaty niżej przeciętnych lub przeciętne, a druga połowa otrzyma w wyniku odchylenia od oczekiwanych statystycznie rezultatów dodatnie. Niech teraz stu spośród owych pięciuset psychologów uzyska rezultaty wyjątkowo znaczne; utwierdzi ich to w przekonaniu, że jednak „coś jest na rzeczy”. Spośród owych stu, znowu połowa otrzyma w dalszych badaniach wyniki nikłe, które skłonią ich do porzucenia badań, a połowa jeszcze mocniej utwierdzi się w przeświadczeniu, że wykryli zjawiska telepatyczne. Ostatecznie na placu boju pozostanie 5—6 ludzi, którzy uzyskali kilka razyz rzędu wyniki pozytywne, i ci już są „straceni”: nie sposób wytłumaczyć im, że sami stali się ofiarami statystyki, którą wojowali. ‘

Całkiem ogólnie: wypadki pojedyncze nie mogą mieć znaczenia dla nauki, skoro prosty rachunek wykazuje, że gdy co nocy kilka miliardów ludzi śni, to jest całkiem prawdopodobne, że treść ich snów „spełni się” przynajmniej w kilkuset wypadkach z owych miliardów. Gdy dodać do tego naturalną niejasność i mglistość snów, jak również ich zwiewny charakter oraz gusta publiczności, smakującej w „zagadkowych” fenomenach, dalsze rozpowszechnianie się podobnych opowieści staje się oczywiste. Co się zaś tyczy zjawisk istotnie całkiem niezrozumiałych, w rodzaju obserwowania jakichś „zjaw”, itp., albo zawieszenia praw przyrody (więc „cudów”), to nauka skłonna jest raczej uznawać je za omamy, halucynacje, przywidzenia itp. Nie powinno to obrażać zainteresowanych, ponieważ chodzi uczonym nie o jakąś „rację akademicką”, a tylko o dobro nauki. Jest ona gmachem zbyt spoistym, wzniesionym wysiłkami nazbyt mnogimi i dociekliwymi, aby dla jednej, drugiej, czy dziesiątej wersji zjawisk, niezgodnej z podstawowymi, wykrytymi na przestrzeni stuleci prawami natury, uczeni gotowi byli wyrzucać za burtę owe prawdy pewne dla niesprawdzalnych — przede wszystkim przez ich niepowtarzalność— fenomenów. Nauka bowiem zajmuje się zjawiskami powtarzalnymi! tylko dzięki temu może zjawiska podobne do badanych przewidywać, czego doprawdy o ESP nie da się powiedzieć.

Osobiście argument „ewolucyjny” uważam za decydujący. Jakakolwiek bowiem ilość ludzi widziałaby, słyszała czy przeżywała „fenomeny telepatyczne”, ilość owa jest bliska zera w porównaniu z ilością „eksperymentów”, jakie „przeprowadziła” ewolucja naturalna w ciągu istnienia gatunków, na przestrzeni miliarda lat. Jeśli nie udało się jej „skumulować” cech telepatycznych, to znaczy, że nie było nic do kumulowania, odsiewania i zagęszczania. Słyszymy przy tym, że zjawiska owe mają być cechą nie tylko organizmów wyższych, jak ludzie czy psy, ale i takich, jak owady; otóż ewolucja owadów trwała kilkaset milionów lat; był to czas co najmniej dostateczny dla wypełnienia całej klasy członkonogich samymi bez wyjątku telepatami, trudno bowiem nawet wyobrazić sobie jakąś cechę bardziej sprzyjającą przeżywaniu w walce o byt od możliwości uzyskiwania informacji o otoczeniu i o innych w nim egzystujących organizmach bez pośrednictwa narządów zmysłowych, „informacjonośnym kanałem telepatycznym”. Jeśli statystyki Rhine’a czy Soala badają cośkolwiek, tym „czymś” są prawdopodobnie pewne dynamiczne struktury umysłu ludzkiego, poddanego próbie „zgadywania” losowych serii długich, i uzyskane rezulaty mogą świadczyć o tym, że w sposób dla nas niezrozumiały czasem układ typu mózgu może niejako „niechcący” natrafić na najkorzystniejszą strategię odgadywania ciągów tego rodzaju, tak aby nieznacznie ponad przeciętną podnieść uzyskiwane rezultaty. Mówiąc to, właściwie ‘ wypowiadam już zbyt wiele, ponieważ jest równie dobrze możliwe, że chodzi o koincydencje dwu serii pseudolosowych (ciągnienie kart Zenera i „ciągnienie” ich pomyślanych przez badanego odpowiedników) wskutek „passy” i nic ponadto.

 

*

 

Przy korekcie drugiego wydania zaznajomiłem się z Intelligence in the Universe Mac Gowana i Ordwaya. Sądzą oni, że budowanie „inteligentnych automatów” jest prawidłowością rozwojową wszystkich biologicznych cywilizacji Kosmosu, na Ziemi zaś będzie temu sprzyjać sytuacja antagonisryczna, jako że podporządkowanie się rządom maszyny strategicznej daje stronie, która tak postąpi, przewagę nad przeciwnikiem. Tak zapoczątkowany, ze strefy zbrojeń w tę nową przeniesiony, wyścig współzawodniczący winien doprowadzić do zjednoczenia, gdyż na wysokim stopniu ich ewolucji już autonomicznej, tj. planowanej i zarządzanej przez owe maszyny, dojdą one tego, że współpraca jest korzystniejsza od utrwalania antagonizmu. Otwierać ma to epokę powszechnego dobrobytu, opłaconego znaczną utratą swobód osobistych przez biologiczne istoty. Po jakimś czasie automat—władca, nawiązawszy ewentualnie kontakt — z innoplanetarnymi, opuszcza swych poddanych, by wyruszyć w „lepsze strony” Kosmosu. Osierocona społeczność biologiczna buduje sobie automaty następne i cykl ów ma się wielokrotnie powtarzać. Jego początek w ujęciu autorów nie jest pozbawiony znamion prawdopodobieństwa, czego o następnych etapach („dobrobytu pod rządami maszyny” oraz jej „Exodusu” w Kosmos) nie można już powiedzieć. Migracje byłych władców elektronowych po Galaktyce są czystym wymysłem. Władztwo automatów .nosi według autorów cechy „doskonale oświeconego absolutyzmu”, łączącego obustronne interesy, jako iż mechaniczny Rozum, jako racjonalny, „wszystko wie lepiej” od ludzi, steruje tedy ich zachowaniem także dla ich dobra, bo jest ono i jego własnym. Ta idealna zbieżność interesów wydaje się wątpliwa, o czym wspominaliśmy nieraz, nadto sterowanie ludźmi racjonalne w 100% jest ryzykownym i niewdzięcznym zajęciem. W First and Last Men okazał się Stapledon — przedstawiając olśniewający początek i kataklityczny kres panowania „Wielkich Mózgów” — przenikliwszym chyba znawcą psychosocjologii. Choć o tym autorzy nie wspominają, ich fantastyczna wersja socjoewolucji stanowi jeszcze jeden wariant odpowiedzi na pytanie o przyczyny „Silentium Universi”. Społeczność biologiczna (to już moja konkluzja) bez wiedzy Władcy kontaktować by się z Innymi nie mogła, a Władca może nie być zainteresowany w kontakcie z cywilizacjami „niższego”, tj. biologicznego poziomu, bo uzyskane informacje mogłyby je odstręczyć raczej od kontynuowania prac cybernetycznych. Dlatego może Władca stosować techniki informacyjne, niewykrywalne dla cywilizacji podobnych do naszej. Lecz zakłada ta hipoteza taką jednotorowość zdeterminowaną rozwoju, która ma posmak aż bajkowego uproszczenia i więcej w niej pierwiastków z Science–Fiction niż z trzeźwego przewidywania.

 


Дата добавления: 2021-01-21; просмотров: 100; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!