Statystyka cywilizacji kosmicznych 22 страница



Są to układy, opatrzone „receptorem wzrokowym”, stanowiącym gruby analog siatkówki oka, oraz pseudoneuronowymi elementami, połączonymi w sposób przypadkowy (losowy), zdolne do rozpoznawania obrazów (prostych konfiguracji planimetrycznych, np. cyfr lub liter), dzięki procesowi uczenia się, zachodzącemu pod sterowaniem algorytmu stosunkowo prostego. Budowane na razie perceptrony są wciąż jeszcze prymitywne i rozpoznawać, powiedzmy, twarzy ludzkich nie mogą, nie mogą też oczywiście „czytać tekstów”, stanowią jednak istotny krok na drodze do zbudowania maszyn, które będą takie teksty czytały. Uprości to ogromnie wszystkie wstępne procedury, niezbędne dla wprowadzania informacji o zadaniu do rozwiązania w obręb maszyny cyfrowej, dziś bowiem każde takie zadanie trzeba „tłumaczyć” na język maszyny, i czynność ta, nie zautomatyzowana, pochłania mnóstwo czasu obsługujących maszynę ludzi. Konstruowanie coraz bardziej złożonych i coraz sprawniejszych perceptronów wydaje się zatem bardzo obiecujące. Nie oznacza to, jakoby stanowiły one jakieś „właściwsze” od maszyn cyfrowych modele mózgu (tym bardziej że pracę perceptronu można modelować także na maszynie cyfrowej), trudno też uważać, że perceptron jest „bardziej podobny” do mózgu od takiej maszyny. Każde z tych urządzeń modeluje w swym wycinkowym zakresie pewne elementarne aspekty funkcjonowania mózgu — i to wszystko. Być może, przyszłe perceptrony podprowadzą nas bliżej ku zrozumieniu „intuicji”. Trzeba dodać, że w literaturze przedmiotu panuje pewne pomieszanie terminologiczne czy pojęciowa niejasność, niektórzy nazywają bowiem „heurystyczne zachowanie się” — „niealgorytmicznym”, ale ustalenie takie zależy od tego, czy za algorytm uznajemy instrukcję działania do końca zdeterminowaną, która się w toku swego realizowania nie odmienia, czy też taką instrukcję, która dzięki przestrukturowującym ją sprzężeniom zwrotnym „sama” się w trakcie pracy przekształca w postać od wyjściowej odmienną. Można tu mówić w pewnych wypadkach też i o „samoprogramowaniu”, a niejaki zamęt częściowo pochodzi stąd, że i ono może implikować rozmaite stany rzeczy. W klasycznych maszynach cyfrowych jest programowanie wyraźnie oddzielone od podporządkowanych mu układów pracujących, w mózgu natomiast tak wyraźny podział nie wszędzie zachodzi. Z chwilą, gdy funkcjonowanie złożonego systemu staje się „plastyczne”, to jest, podlega zdeterminowaniu tylko warunkowemu, probabilistycznemu, i nie jest jednokierunkowym realizowaniem sztywnych, raz na zawsze ustalonych „przepisów”, pojęcie algorytmu już nie daje się zastosować w swej postaci wziętej bezpośrednio z dyscyplin dedukcyjnych; możliwe bowiem jest zachowanie się, wprawdzie dyktowane deterministycznie, ale tylko do pewnej granicy (po pewnej liczbie kroków system zostaje, powiedzmy, „powiadomiony” o tym, że teraz ma rozpocząć „swobodne poszukiwanie” następnego pociągnięcia w obrębie całego zbioru alternatyw; zaczyna więc system działać metodą „prób i błędów”, aż natrafi na wartość „optymalną” — np. minimum lub maksimum pewnej funkcji — i tu znów włącza się „sztywna” instrukcja na czas jakiś). Ale możliwe jest też, że cały algorytm jest probabilistyczny w pewnym sensie „jednolicie”, to jest że żaden z kolejnych kroków nie zostaje przepisany „apodyktycznie”, lecz ustala się jedynie pewne przedziały, czy ramowe zakresy dozwolone, w których mogą być uruchamiane albo innego rodzaju („lokalnie zdeterminowane”) algorytmy, albo operacje typu „zestawiania” dla „wyszukiwania podobieństwa” (typu „rozpoznawania obrazów” albo „kształtów”, albo też tylko podobieństwa odwzorowań). Przeplatać tedy mogą się pewne operacje typu sterowania „apriorycznie ustalonego” „poszukiwania”, „porównywania”, „indukcji” wreszcie. O tym, czy mamy jeszcze do czynienia z „algorytmem”, czy już z „heurystyką” na „intuicji” opartą, częściowo będzie decydowała arbitralność — podobnie, jak arbitralne bywają ustalenia, stwierdzające, że wirus w postaci skrystalizowanej jest „nieżywy”, a wprowadzony w obręb komórki bakteryjnej — „żywy”.


2

 

Jak zatem mogą się przedstawiać próby odpowiedzi na pytanie, czy płody „myślenia maszynowego” zdolne są przekroczyć pułap intelektualnych możliwości człowieka?

Należy chyba wyliczyć warianty odpowiedzi z tym, że nie wiemy, czy to są wszystkie warianty, ani też, który jest prawdziwy.

a) Myślenie maszynowe nie może przekroczyć „ludzkiego pułapu intelektualnego” z pewnych względów zasadniczych. Na przykład dlatego, że żaden układ nie może być „rozumniejszy” od człowieka: osiągnęliśmy ów pułap sami, a tylko o tym nie wiemy. Albo, ponieważ do układów myślących typu „człowiek” wiedzie jedna tylko droga, ewolucji naturalnej, i można ją najwyżej „powtórzyć”, mając za poligon doświadczalny planetę, albo wreszcie, ponieważ układy niebiałkowe zawsze są intelektualnie (jako przetworniki informacji) „gorsze” od białkowych, itp.

Wszystko to brzmi bardzo nieprawdopodobnie, chociaż wykluczyć się na razie nie daje. Mówiąc tak, posługuję się wytycznymi heurystyki, które sugerują mi, że człowiek jest jednak istotą rozumną dość sobie zwykłą, skoro go uformował odsiew na względnie mało liczebną grupę parametrów około miliona lat temu, że mogą istnieć od niego „rozumniejsze”, że procesy Natury można naśladować i różnymi drogami dochodzić do pewnych stanów, do których Natura doszła sekwencją innych stanów. Przyszły rozwój teorii ergodycznej powinien nam w tej sferze zagadnień wiele wyjaśnić.

b) Myślenie maszynowe może przekroczyć ludzki „pułap intelektualny”, w tym sensie, w jakim nauczyciel matematyki jest „rozumniejszy” od swych pupilów. Ale ponieważ człowiek może zrozumieć to, do czego sam nie może dojść (dzieci rozumieją geometrię euklidesową, chociaż jej same nie wymyślają), człowiekowi nie grozi utrata kontroli nad „poznawczą strategią maszyn”, ponieważ zawsze będzie rozumiał, co one robią, jak i dlaczego. Z kolei to stanowisko wydaje mi się nie do przyjęcia.

Co to właściwie znaczy, że „myślenie maszynowe może przekroczyć pułap intelektualny człowieka”? Jeśli może tak, jak nauczyciel wobec dzieci to przykład jest zły, ponieważ nauczyciel też geometrii nie wymyślił. Chodzi o stosunek twórców nauki do innych ludzi — to on jest analogiem relacji „maszyna — człowiek”. A zatem: maszyna może stwarzać teorie, tj. wykrywać niezmienniki klas zjawisk w zasięgu większym niż człowiek. Wzmacniacz inteligencji, w jego pierwotnym sformułowaniu Ashby’ego, uczonego by nie zastąpił, ponieważ jest to selektor informacji, praca uczonego natomiast sprowadzić się do selekcji nie daje. Maszyna Ashby’ego mogłaby czynić wprawdzie elementami sytuacji wyboru daleko większą ilość członów alternatywy, niż to może człowiek, taki układ byłby realny i przydatny, ale tylko

Wątpliwości i antynomie w sytuacjach, w których stoimy właśnie na rozdrożu i mamy wybierać dalszą drogę, a nie w sytuacjach, w których dopiero należy domyślić się tego, że jakaś droga istnieje (na przykład „droga kwantowania procesów”). Wzmacniacz ów nie może więc stanowić nawet pierwszego przybliżenia maszyny, automatyzującej twórczą pracę uczonego. Nakreślić jego schematu na razie nie umiemy nawet w przybliżeniu, ale wiemy przynajmniej z grubsza, co maszyna gnostyczna musi robić: musi ona uwzględniać, dla stworzenia teorii układów złożonych, wielką ilość parametrów, taką, jakiej algorytmy nauki współczesnej podołać nie potrafią. W fizyce można oddzielać od siebie poziomy zjawisk (fizyka atomowa, jądrowa, ciała stałego, mechanika). W socjologii to nie jest możliwe, ponieważ wiodącymi, to jest decydującymi o dynamicznym torze systemu okazywać się mogą naprzemiennie rozmaite poziomy (singularno–jednostkowy, pluralno–masowy). Główny szkopuł leży właśnie w ilości zmiennych do uwzględnienia. Gdyby „maszyna gnostyczna” potrafiła stworzyć „teorią układu społecznego”, musiałaby ta teoria uwzględniać wielką ilość zmiennych, i tym by się różniła od znanych nam formalizmów fizykalnych. Otóż, na wyjściu „gnostycznego kreatora” otrzymujemy teorię, zakodowaną, powiedzmy, w postaci całego systemu równań. Czy ludzie będą mogli z owymi równaniami cokolwiek począć?

Sytuacją uzmysłowimy sobie być może lepiej na przykładzie zaczerpniętym z biologii. Jeśli informacyjna pojemność jajowej komórki dorównuje ilości informacji encyklopedii, to przecież taką encyklopedię, na jaką pewno kiedyś „przełoży się” genotyp, będzie można odczytać tylko dlatego, że czytelnik będzie znał fizykę, chemię, biochemię, teorię embriogenezy, teorię samoorganizujących się układów itd. Jednym słowem, będzie znał język i reguły jego stosowania. W wypadku teorii, którą „zrodzi” maszyna, nie będzie z góry znał ani języka, ani —jego reguł, jednego i drugiego musi się dopiero uczyć. Pytanie zatem, w ostatecznej postaci, brzmi: czy może się nauczyć?

W tym miejscu wchodzi w nasze rozważania czynnik czasu, ponieważ jasne jest chyba, że więcej trzeba czasu, aby odczytać całą informację, zawartą w komórce bakteryjnej, a przekodowaną na język aminokwasów czy nukleotydów, aniżeli trzeba czasu komórce, aby się podzieliła. Podczas jednej lektury, której dokonujemy „oczyma i mózgiem”, tekstu „sformalizowanej i przekodowanej bakterii”, ona tymczasem podzieli się setki razy, bo wszak „odczytuje siebie sama”, w kolejnych podbiałach, niezrównanie szybciej. W wypadku zaś „teorii społeczeństwa” — ;czy, już ogólnie, układu nadzwyczaj złożonego — czas lektury może się okazać taki, że czytelnik po prostu tylko dlatego nie rozumie, co czyta, ponieważ nie jest w stanie operować umysłowo elementami równań — zbyt wielkie, wymykają mu się z pola uwagi, przekraczają możliwości pamięci, jest to zaiste trud syzyfowy, a problem brzmi wtedy: czy teoria, w jej postaci, danej przez maszynę, będzie redukowalna do postaci dostatecznie prostej, aby człowiek mógł ją ogarnąć? Obawiam się, że to nie będzie możliwe. To znaczy, oczywiście, redukcja jest możliwa, a jedynie każda kolejna postać teorii, wynikająca z następnego zredukowania, okaże się zarazem zbyt rozległa jeszcze dla człowieka, chociaż już, względem oryginału, uboższa o utracone elementy.

Maszyna, redukując, będzie zatem robiła to, co robi fizyk, wyjaśniający szerokiej publiczności teorię fal grawitacyjnych przy pomocy skąpego arsenału matematyki gimnazjalnej. Albo to, co robi mędrzec w bajce, który przynosił łaknącemu wiedzy królowi kolejno — bibliotekę na grzbiecie stada wielbłądów, potem — setkę tomów w jukach muła, a wreszcie — grube księgi, które niósł niewolnik, bo dla króla te kolejne „redukcje” wciąż jeszcze były „zbyt obszerne”.

Z tego widać, że nie musimy już rozpatrywać takiej (trzeciej) możliwości: c) Maszyna może przekroczyć pułap intelektualny człowieka zarówno w zakresie tego, co człowiek może jeszcze, jak i w zakresie tego, czego człowiek nie może już ogarnąć. Możliwość ta wynikła bowiem, jako wniosek, przy obaleniu drugiej.

Prawdopodobnie tam, gdzie człowiek będzie mógł sam dojść umysłem, nie będzie potrzebował maszyny inaczej, aniżeli jako niewolnika, który by wykonywał zań pracochłonne operacje pomocnicze (Uczenia, dostarczania żądanych informacji, a więc „pomocnicza pamięć” i „asysta w operacjach krokowych”). Tam, gdzie umysłem sam nie dotrze, maszyna dostarczy mu gotowych modeli zjawisk, gotowych teorii. Pytanie wtedy — antynomiczne —o to, „jak można kontrolować to, czego nie można kontrolować?” Może należałoby stworzyć maszyny „antagonistyczne”, które by się wzajem (w rezultatach działania) kontrolowały? Ale co robić, jeśli przedstawią na wyjściach rezultaty sprzeczne? Ponieważ w końcu od nas zależy, co zrobimy z teoriami, zrodzonymi przez maszyny, w szczególnie konfliktowej sytuacji można by je i do pieca wrzucić. Inna sprawa z maszynami zarządzającymi, to jest tymi, które są najprawdopodobniejszym jeszcze wcieleniem wzmacniacza Ashby’ego. Prawdopodobnie robotów, obdarzonych quasi–ludzką osobowością, nie będzie się budować, chyba w celach takich, jakie Fritz Leiber przedstawił w swej powieści The Silver Eggheads, gdzie są nawet wspaniałe lupanary z elektronowymi damami, które podczas „tego” organowym głosem nucą Bacha albo mają ogon jak Chimery. Natomiast powstaną i będą się rozrastać ośrodki maszynowe, zarządzające produkcją, obrotem towarowym, dystrybucją, jak również zarządzające badaniami (koordynacja wysiłków uczonych, wspomaganych, w fazie wczesnej, „symbiotycznie” przez maszyny pomocnicze). Otóż takie koordynatory lokalne wymagają nadrzędnych, w skali, powiedzmy, kraju bądź kontynentu. Czy możliwe są między nimi sytuacje konfliktowe? Jak najbardziej możliwe. Zachodzić będą konflikty w płaszczyźnie decyzji inwestycyjnych, badawczych, energetycznych, bo wszak trzeba będzie określać prymat rozmaitych działań i kroków, ze względu na mrowie powiązanych wzajemnie czynników. Trzeba będzie takie konflikty rozstrzygać. Oczywiście, powiadamy szybko: to będą robili ludzie. Bardzo dobrze. Otóż decyzje będą dotyczyły problemów ogromnej złożoności i ludzie — kontrolerzy Koordynatora, będą musieli, aby rozeznać się w przedstawionym im morzu matematycznym, uciec się do pomocy innych maszyn, mianowicie optymalizujących decyzje. Nad wszystkim tym istnieje aspekt gospodarki globalny: należy ją także koordynować. Planetarny Koordynator też jest maszyną, z „radą przyboczną”, złożoną z ludzi, którzy sprawdzają lokalne decyzje układów: „kontrolerzy–maszyny” poszczególnych kontynentów. Jak to robią? Mają własne maszyny do optymalizowania decyzji. I oto: czy możliwe jest, że ich maszyny, dublując, w celach kontroli, pracę maszyn kontynentalnych, dadzą odmienne wyniki? I to jest zupełnie możliwe, ponieważ każda maszyna podczas dokonywania określonej sekwencji kroków, z których składa się rozwiązywanie zadania (metodą, powiedzmy, kolejnych przybliżeń, bo materiał zmiennych jest olbrzymi), staje się jakoś „stronnicza” — w sensie używanego w angielskim żargonie filozoficznym terminu „biased”. Wiadomo, że człowiek zasadniczo nie może nie być w ogóle stronniczy; dlaczego jednak ma być stronniczą maszyną? Stronniczość nie musi bowiem stanowić rezultatu predylekcji emocjonalnych — wynika już z nadania rozmaitej wagi konfliktującym z sobą członom alternatywy. Czy możliwe są takie „wyceny” tych członów, przez kilka pracujących niezależnie a równolegle maszyn, które by się między sobą różniły? Ależ tak, ponieważ maszyny te, będąc, siłą rzeczy, układami probabilistycznymi, nie działają tożsamościo—wo. Zarządzanie stanowi w ujęciu algorytmicznym drzewo, czy też system „drzew decyzyjnych” — trzeba godzić z sobą sprzeczne zapotrzebowania, rozmaite popyty, podaże, interesy; niepodobna też z góry ustalić „cennika” wszystkich możliwych sytuacji konfliktowych takiego, żeby tylko w oparciu o jego hasła i przypisane im „wyceny punktowe” dało się, mimo stosowania metod prawdopodobnościowych, uzyskiwać, przy kolejnym rozwiązywaniu tego samego problemu zarządzania, takie same dokładnie rezultaty. Przy tym, rzecz jasna, stopień zróżnicowania wyników jest jakąś funkcją złożoności rozstrzyganych problemów. Sytuacja stanie się może bardziej wyrazista, jeżeli sobie uzmysłowimy, że można ją wyrazić po części także w języku teorii gier. Maszyna jest jakby graczem, prowadzącym rozgrywkę przeciwko pewnej „koalicji”, na którą składa się olbrzymia ilość rozmaitych zgrupowań produkcyjnych i rynkowych, a także transportowych, usługowych itp. Zadaniem jej jest, mówiąc obrazowo, dbanie o to, by zachowana została optymalna równowaga wewnątrz koalicji, aby żaden z jej „członków” nie został ani pokrzywdzony w stosunku do innych, ani nagrodzony kosztem pozostałych. Koalicja jest bowiem w tym ujęciu po prostu całością planetarnej gospodarki, która winna się rozwijać homeostatycznie, a zarazem „sprawiedliwie i równomiernie”, a „gra maszyny przeciw koalicji” oznacza systematyczne utrzymywanie w obrębie dynamicznie rozwijającej się gospodarki — stanu takiej równowagi, która albo wszystkim przynosi pożytek, albo przynajmniej wyrządza, jeśli się tego uniknąć nie da, możliwie najmniej szkody. I teraz, jeśli podobną „partię” rozgrywać będą, „przeciwko” naszej „koalicji”, kolejno rozmaici parnterzy maszynowi (to znaczy, że każdy z nich będzie miał, na początku, do czynienia z zupełnie taką samą sytuacją wewnątrz koalicji), jest w najwyższym stopniu nieprawdopodobne, ażeby wszystkie poszczególne owe rozgrywki miały, co do poszczególnych posunięć oraz ich wyniku, tożsamy przebieg. Jest to prawie tym samym, co postulat, aby różni ludzie, grający po kolei w szachy przeciwko temu samemu szachiście, grali dokładnje tak samo — tylko dlatego, ponieważ takiego samego mają wszyscy przeciwnika. A zatem — co należy robić ze sprzecznymi „wycenami” maszyn, które miały wesprzeć człowieka, mającego rozstrzygnąć spór lokalnych Koordynatorów? Regressus ad infinitum nie jest możliwy — należy coś począć. Ale co? Wygląda to tak: albo elektronowe koordynatory nie umieją uwzględnić większej ilości zmiennych od człowieka, a wtedy w ogóle nie warto ich budować, albo umieją, a wtedy człowiek nie może sam „rozeznać się” w rezultatach, tj. nie umie powziąć niezależnej od maszyny decyzji, w oparciu o „własne zdanie o sytuacji”. Koordynator daje sobie radę z zadaniem, ale człowiek—”kontroler” niczego naprawdę nie kontroluje, a tylko tak mu się zdaje. Czy to nie jest jasne? Maszyna, do której pomocy odwołuje się człowiek—kontroler, jest w pewnym sensie dublerem Koordynatora i człowiek w tym miejscu staje się gońcem na posyłki, który taśmę informacyjną przenosi z miejsca na miejsce. Jeśli zaś dwie maszyny dają niejednakowe rezultaty, człowiek nie może zrobić nic innego, jak tylko rzucać monetą, aby wybrać: z „najwyższego nadzorcy” staje się mechanizmem losowym wyboru! A więc znów, i to przy maszynach tylko zarządzających, mamy sytuację, kiedy stają się one „bystrzejsze” od człowieka. Prima facie należałoby im to uniemożliwić, na mocy takiej oto np. ustawy: „Zabrania się budowy i użytkowania maszyn koordynujących, których potencjał przerabiania informacji udaremnia człowiekowi–kontrolerowi merytoryczny wgląd w rezultaty ich działalności”. To czysta fikcja jednak, bo kiedy obiektywna dynamika gospodarcza procesów do regulowania będzie wymagała dalszego rozrostu Koordynatorów, barierę ludzkich możliwości należy przekroczyć, i oto znów antynomia.


Дата добавления: 2021-01-21; просмотров: 56; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!