Statystyka cywilizacji kosmicznych 15 страница



Otóż, w odniesieniu do systemów bardzo złożonych, takich, jak społeczeństwo, mózg, albo jeszcze nie istniejące „bardzo wielkie czarne skrzynki”, poznanie takie nie jest możliwe. Układy takie nie mają algorytmów. Jak należy to rozumieć? Przecież każdy układ, więc i mózg, i społeczeństwo, zawsze zachowuje się w jakiś określony sposób. Sposób tego zachowania można by symbolicznie odwzorować. Bez wątpienia: ale nic by nam z tego nie przyszło, ponieważ algorytm musi być powtarzalny, musi pozwalać na przewidywanie stanów przyszłych, natomiast to samb społeczeństwo, postawione dwa razy w takiej samej sytuacji, wcale nie musi się zachować analogicznie. I tak się ma właśnie rzecz ze wszystkimi układami o wysokim stopniu komplikacji.

Jak zbudować „czarną skrzynkę”? O tym, że to jest w ogóle możliwe, że da się skonstruować układ o dowolnym stopniu złożoności bez żadnych wstępnych planów, obliczeń, bez poszukiwania algorytmów, wiemy, ponieważ my sami jesteśmy „czarnymi skrzynkami”. Ciała nasze są nam podwładne, możemy wydawać im określone rozkazy, a przecież nie znamy (to jest: nie musimy znać; ta wiedza nie jest niezbędna) ich wewnętrznego urządzenia. Powraca tu problem skoczka, który umie skakać, ale sam nie wie, jak to robi, to jest nie posiada wiedzy o dynamice nerwowo–mięśniowych przebiegów, której rezultatem jest skok. A zatem doskonałym przykładem urządzenia, którym można się posługiwać, nie znając jego algorytmu, jest każdy człowiek. Jednym z „najbliższych nam” w całym Kosmosie „urządzeń” jest nasz własny mózg: mamy go przecież w głowie. Niemniej po dzień dzisiejszy nie wiemy dokładnie, jak ten mózg działa. Badanie jego mechanizmów introspekcją jest — jak wskazuje historia psychologii — w najwyższym stopniu zawodne i prowadzi na manowce najnieprawdziwszych z wszystkich możliwych hipotez. Mózg jest tak zbudowany, że — ułatwiając nam działania — jednocześnie pozostaje „w ukryciu”. Oczywiście, nie jest to wynikiem perfidii działań naszego Konstruktora, Przyrody — a tylko skutkiem doboru naturalnego: obdarzył nas umiejętnością myślenia, gdyż była ewolucyjnie przydatna, i dlatego myślimy — chociaż nie wiemy, jak to się dzieje, że myślimy, ponieważ ofiarowanie nam takiej wiedzy nie leżało „w interesie” ewolucji. Nie ukryła przed nami niczego: wyrugowała tylko z obrębu swych dzieł wszelką wiedzę z jej „punktu widzenia” zbędną. Jeśli nie jest zbędna — z naszego punktu widzenia — musimy ją zdobyć sami.

Tak więc niezwykłość proponowanego przez cybernetykę rozwiązania, w którym maszyna jest całkowicie wyobcowana ze sfery wiedzy ludzkiej, niezwykłość tę spopularyzowała już i to od dawna Natura.

Być może — powie ktoś — ale człowiekowi jego „czarną skrzynkę”, jego ciało i mózg, dążące do optymalnego rozwiązywania życiowych problemów, dała Natura, skonstruowawszy je w rezultacie prób i błędów, trwających miliardy lat. Czy mamy dążyć do kopiowania jej płodów? A jeśli tak — to w jaki sposób? Przecież nie możemy poważnie rozpatrywać powtórzenia —tym razem, technicznego — ewolucji? Taka „ewolucja cybernetyczna” pochłonęłaby może, jeśli nie miliardy, to miliony, a choćby tylko — setki tysięcy lat… I jak w ogóle rozpocząć to dzieło? Czy atakować problem od strony biologicznej, czy abiologicznej?

Odpowiedzi nie znamy. Zapewne trzeba będzie próbować wszystkich możliwych dróg, tych zwłaszcza, które z różnych powodów były dla Ewolucji zamknięte. Ale nie jest naszym zamiarem fantazjowanie na temat możliwych, to jest dających się pomyśleć, „czarnych skrzynek”, jako twórców Technologii. Chcieliśmy tylko sformułować zadanie. Wiemy, że jedynie bardzo złożony regulator da sobie radę z bardzo złożonym systemem. Musimy zatem poszukiwać takich regulatorów — w biochemii, w żywych komórkach, w inżynierii molekularnej ciała stałego — wszędzie, gdzie to możliwe. Wiemy zatem, czego chcemy i czego szukamy, jak również wiemy — dzięki korepetycjom u Natury — że to zadanie można rozwiązać. Wiemy więc już tak wiele, że równa się to połowie sukcesu.


O moralności homeostatów

 

Nadszedł czas wprowadzenia w obręb naszych cybernetycznych roz—trząsań problematyki moralnej. Sytuacja jest w rzeczywistości odwrotna: to nie my wprowadzamy zagadnienia etyki w cybernetykę, to ona, rozrastając się, obejmuje swymi konsekwencjami wszystko, co uważamy za moralność, to znaczy system kryteriów, wartościujących działanie w sposób, z punktu widzenia czysto przedmiotowego, arbitralny. Moralność jest arbitralna jak matematyka, gdyż obie wyprowadza się drogą logicznego rozumowania z przyjętych aksjomatów. Można uznać za jeden z aksjomatów geometrii, że przez punkt, leżący poza prostą, da się przeprowadzić tylko jedna linia do niej równoległa. Można ten aksjomat odrzucić i otrzymamy wtedy geometrię nieeuklidesową. Istotne jest, żebyśmy sobie zdawali sprawę z tego, kiedy postępujemy w sposób umówiony z góry, jak to ma miejsce z wyborem aksjomatów geometrycznych, ponieważ ta umowa, ten wybór zależy od nas. Można uznać za jeden z aksjomatów moralnych, że dzieci, obarczone wrodzonym kalectwem, należy zabijać. Otrzymamy, znaną z historii, moralność „tarpejską”, której zaciekłe dyskutowanie i ostateczne odrzucenie wywołała w ostatnich czasach znana afera thalidomidu. Powiada się często, że istnieją dyrektywy moralne ponadhistoryczne. Z tego punktu widzenia „moralność tarpejską”, nawet w najbardziej złagodzonej formie (przejawiająca się na przykład jako postulowanie eutanazji wobec ludzi cierpiących męki wskutek nieuleczalnych chorób), jest niemoralnością, jest zbrodnią, złem. W gruncie rzeczy zachodzi tutaj ocena jednego systemu moralnego z pozycji innego systemu. Oczywiście, wybieramy ten inny, „nietarpejski” system, ale skoro zgodzimy się, że powstał w toku społecznej ewolucji człowieka, a nie został objawiony, należy uznać fakty historycznego praktykowania odmiennych systemów. Sprawa rozmijania się moralności głoszonej z moralnością praktykowaną wprowadza do zagadnienia komplikacje, które jednak nas nie interesują, ponieważ ograniczymy się tylko do przedstawienia realnych działań, pomijając ich, niewątpliwie możliwy, kamuflaż, czyli po prostu —dezinformację. Ten, kto dezinformuje, uprawia w słowach inną moralność, aniżeli w czynach. Sama potrzeba dezinformacji wskazuje, że określone aksjomaty moralne panują powszechnie w świadomości społecznej, w przeciwnym bowiem razie nie trzeba by zakłamywać faktów. Ale te same fakty mogą w różnych cywilizacjach znaleźć diametralnie przeciwstawną ocenę. Porównajmy moralne aspekty prostytucji współczesnej i babilońskiej. Babilońskie kapłanki—prostytutki oddawały się nie dla osobistego zysku, lecz dla „wyższych powodów”: takie postępowanie aprobowała ich religia. Były one w pełnej zgodzie z moralnością, dedukowaną z owej religii. Tym samym, w obrębie swego czasu i społeczeństwa, nie zasługiwały na potępienie, w przeciwieństwie do kurtyzan współczesnych, gdyż zgodnie z dzisiejszymi kryteriami, prostytucja jest moralnie zła. Taka sama zatem działalność znajduje, w obrębie dwu różnych cywilizacji, dwie krańcowo różne oceny.

Wprowadzenie automatyzacji cybernetycznej pociąga za sobą, raczej nieoczekiwanie, dylematy moralne. Stafford Beer, jeden z amerykańskich pionierów cybernetyzacji wielkich kapitalistycznych jednostek wytwórczych, postuluje budowę „kompanii—homeostatu” i jako jej przykład omawia szczegółowo teorię regulowania działań wielkiej stalowni. „Mózg” jej ma optymalizować wszystkie procesy, składające się na wytwarzanie stali, w taki sposób, żeby proceder ten był jak najbardziej wydajny, sprawny i uniezależniony zarówno od zakłóceń podaży (siły roboczej, rudy, węgla itp.) i popytu rynkowego, jak i od wewnętrznych niedomagań systemowych (nierównomierność produkcji, niepożądany wzrost kosztów własnych, maksymalna wydajność na jednego pracownika). W jego przedstawieniu taka jednostka produkcyjna ma być ultrastabilnym homeostatem, który wewnętrzną reorganizacją natychmiast reaguje na każde odchylenie od stanu równowagi i tym samym stan ten przywraca. Dyskutanci — fachowcy, którym przedstawiony został ów teoretyczny model, zwrócili uwagę na to, że brak mu „religii”. Beer świadomie wymodelował ową stalownię—homeostat według zasad działania żywego organizmu. Otóż, jedynym właściwie kryterium „wartości” organizmu w przyrodzie jest jego zdolność przetrwania — za wszelką cenę. To znaczy, ewentualnie i za cenę pożerania innych organizmów. Przyrodnik, pojmując, że Naturze brak „systemów oceny moralnej”, nie uważa postępowania głodnych drapieżców za „moralnie złe”. Pytanie brzmi zatem: czy „stalownia—organizm” może, to jest „ma prawo”, „pożerać” w razie potrzeby swoich konkurentów, czy nie? Pytań takich, może nieco mniej drastycznych, jest więcej. Czy taka homeostatyczna jednostka ma dążyć do maksymalnej produkcji, czy do maksymalnego zysku? A co, jeśli po upływie pewnego czasu, wskutek następujących przemian technologicznych, produkowanie stali okazuje się zbędne? Czy „tendencja przeżycia”, wbudowana w „mózg” tego systemu wytwarzającego, ma go doprowadzić do całkowitej przebudowy, tak aby na przykład sam siebie przeorganizował w producenta plastyków? Ale dlaczego akurat plastyków? Czym ma się kierować w tej reorganizacji totalnej — szansą maksymalnej użyteczności społecznej? Czy znów — zysku?

Beer wymija odpowiedź na te pytania, oświadczając, że ponad „mózgiem” stalowni jest jeszcze Rada Nadzorcza prywatnych właścicieli, która pobiera decyzje o charakterze ogólnym, najwyższego rzędu. Mózg tylko je optymalnie realizuje*.

Tym samym Beer sprzeniewierza się „autonomiczno–organicznej” zasadzie własnej koncepcji i przenosi wszystkie kwestie „moralne” poza układ „czarnej skrzynki” — w obręb Rady Nadzorczej. Ale ten unik jest pozorny. „Czarna skrzynka” nawet tak ograniczona będzie pobierała decyzje o charakterze moralnym, na przykład zwalniając robotników czy obniżając płace, skoro tego będzie wymagała zasada optymalnego działania stalowni jako całości. Łatwo też sobie wyobrazić, że dojdzie do „walki o byt” stalowni–homeostatu Beera z innymi, zaprojektowanymi przez innych cybernetyków, stojących na usługach innych korporacji. Albo będą one tak ograniczone w swych kompetencjach, że nieustannie zwracać się będą o decyzję do ludzkiego „managera” (czy zrujnować konkurenta, bo jest okazja, itp.), albo ich obarczona moralnymi konsekwencjami działalność będzie się rozszerzała. W pierwszym przypadku naruszona zostaje sama zasada autoregulacyjna homeostatu–producenta. W drugim — homeostaty zaczynają wpływać na losy ludzkie w sposób bardzo często nie przewidziany przez ich twórców, i może dojść do załamania gospodarki kraju jako całości dlatego, ponieważ jeden z homeostatów sprawia się z wyznaczonym mu zadaniem zbyt dobrze —rujnując wszystkich konkurentów…

Dlaczego w pierwszym przypadku naruszona zostaje zasada działania „czarnej skrzynki”? Dlatego, ponieważ taka „skrzynka”, taki regulator, bynajmniej nie jest podobny do człowieka, w tym sensie, żeby można mu zadawać pytania na każdym etapie pobieranych przezeń decyzji i żeby on na te pytania (o społeczne konsekwencje swych kolejnych działań) był w stanie odpowiedzieć. Nawiasem mówiąc, nawet człowiek — „manager” często tych odległych konsekwencji swych decyzji nie zna. „Czarna skrzynka”, która ma „utrzymać przy życiu” stalownię, reagując na wszelkie fluktuacje „wejść” (ceny węgla, rudy, maszyn, wysokości płac) i „wyjść” (rynkowa cena stali, popyt na jej poszczególne gatunki), i taka „czarna skrzynka”, która ponadto uwzględnia jeszcze interesy pracowników, a może nawet i konkurentów, to dwa całkiem różne urządzenia. Pierwsza będzie sprawniejsza jako producent od drugiej. Wprowadzenie do programu wstępnego, do „aksjomatycznego jądra” postępowania, ustawodawstwa pracy obowiązującego” wszystkich obecnych na rynku producentów działanie homeostatu na szkodę pracowników ogranicza, ale może je na przykład zwiększyć w odniesieniu do firm konkurencyjnych, albo wytwórców stali w innych krajach kapitalistycznych. v Najważniejsze jednak jest to, że „czarna skrzynka” wcale „nie wie” o tym, kiedy tak właśnie, z czyjąś szkodą, działa, i nie można od niej wymagać, żeby informowała o takich skutkach swych decyzji ludzi, ponieważ ex definitione jej stanów wewnętrznych nikt, włącznie z projektantem—konstruktorem, nie zna. Tego typu konsekwencje wprowadzenia homeostatycznych reguła torów miał właśnie na myśli Norbert Wiener, poświęciwszy w nowym wydaniu swej podstawowej pracy Cybernetics osobny rozdział nieobliczalnym skutkom ich funkcjonowania. Mogłoby się wydawać, że niebezpieczeństwa tego rodzaju zlikwiduje w zarodku uruchomienie „czarnej skrzynki” wyższego typu jako „maszyny do rządzenia” —nie ludźmi, ale podporządkowanymi jej „czarnymi skrzynkami” indywidualnych producentów. Rozważenie następstw takiego kroku okaże się nader interesujące.


Niebezpieczeństwa elektrokracji

 

Tak zatem, aby uniknąć społecznie szkodliwych konsekwencji działania „czarnych skrzynek” jako regulatorów poszczególnych jednostek produkcji, wprowadziliśmy na tron władzy ekonomicznej Czarną Skrzynkę — Regulator najwyższego stopnia. Powiedzmy, że ogranicza ona swobodę produkcyjnych regulatorów, narzucając im programowaniem (równoważnym legislacji) przestrzeganie przepisów prawa pracy, zasad lojalności względem konkurentów, dążenie do zlikwidowania rezerwowej armii pracy (to jest bezrobocia), itp. Czy to jest możliwe? Teoretycznie — tak. W praktyce jednak postępowanie takie obciąży ogromna ilość przeróżnych — nazwijmy je tak eufemistycznie — niedogodności.

Czarna Skrzynka, jako układ bardzo złożony, jest nieopisywalna, algorytmu jej nikt nie zna i znać go nie może, działa ona probabilistycznie, a zatem postawiona dwa razy w tej samej sytuacji, wcale nie musi postąpić tak samo. Czarna Skrzynka jest poza tym — i to chyba najistotniejsze —maszyną, która uczy się, w toku konkretnie podejmowanych działań, na własnych błędach. Z samych podstaw cybernetyki wynika, że zbudowanie Czarnej Skrzynki — Władcy Ekonomicznego, który byłby natychmiast wszechwiedny i potrafił przewidzieć wszystkie możliwe konsekwencje pobieranych decyzji, jest niemożliwością. W miarę upływu czasu regulator będzie się zbliżał do tego ideału. Jak szybko — określić tego nie umiemy. Być może, najpierw wprowadzi państwo w szereg przeraźliwych kryzysów, z których je stopniowo wyprowadzi. Być może, oświadczy, że między wprowadzonymi w Program Działania aksjomatami zachodzi sprzeczność (na przykład: nie można równocześnie przeprowadzać ekonomicznie opłacalnej automatyzacji procesów produkcyjnych i dążyć do likwidacji bezrobocia, jeżeli zarazem nie będzie się robiło wielu innych rzeczy — na przykład, ‘ wprowadzało subwencjonowanego przez Państwo lub Kapitał przekwalifikowania tracących wskutek automatyzacji pracę, itp.). Co wtedy? Trudno nam wdać się w ścisłą analizę tak skomplikowanego zagadnienia. Powiedzieć można tyle: Czarna Skrzynka, już to jako regulator produkcji w jednym z jej ogniw podrzędnych, już to jako regulator uniwersalny w skali państwa, zawsze działa z pozycji wiedzy cząstkowej. Inaczej być nie może. Nawet, gdyby po wielu próbach i błędach, w których toku unieszczęśliwiła miliony ludzi, „czarna skrzynka” — władca ekonomiczny osiągnęła ogromną wiedzę, niezrównanie większą od wiedzy wszystkich kapitalistycznych ekonomistów razem wziętych, to i tak brak jakiejkolwiek gwarancji, że nie spróbuje ona przeciwdziałać kolejnej, nowymi przyczynami wywołanej fluktuacji, w sposób, który wszystkim, wraz z jej projektantami, postawi włosy na głowie. Musimy rozpatrzyć taką ewentualność na konkretnym przykładzie.


Дата добавления: 2021-01-21; просмотров: 53; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!