Kossecki - Metacybernetyka.doc

(2309 KB) Pobierz
metacybe.doc

 

Józef Kossecki

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

METACYBERNETYKA

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Kielce - Warszawa 2005



 

 

 

 

PRZEDMOWA

 

 

              Obok procesów integracji zachodzących we współczesnym świecie (zwłaszcza w gospodarce), w nauce występuje dziś proces odwrotny - coraz dalej postępującej specjalizacji i dezintegracji. Dochodzi wręcz do tego, że specjaliści z jednych dziedzin nauki coraz częściej nie są w stanie zrozumieć tego, co mówią specjaliści z innych dziedzin, nie mówiąc już o wykorzystywaniu wiedzy spoza własnej dyscypliny.

              Główną przyczyną tego stanu rzeczy jest odmienność języka naukowego i metod badawczych w różnych dyscyplinach.

              W latach czterdziestych XX wieku podjęto próbę integracji nauki na gruncie cybernetyki rozumianej jako nauka o procesach sterowania w organizmach żywych i maszynach. Tak rozumiana cybernetyka - chociaż stanowiła wielki krok w kierunku integracji nauki - nie była w stanie wyjaśnić, a nawet opisać wielu bardzo istotnych zjawisk, w szczególności różnicy między organizmami żywymi a urządzeniami technicznymi, w których zachodzą procesy sterowania, jak również procesów reprodukcji gatunkowej organizmów żywych. Nie zostały też wystarczająco precyzyjnie określone relacje między cybernetyką a fizyką i jej zastosowaniami technicznymi, w szczególności zaś nie był rozwiązany problem: czy cybernetyka zakłada jako aksjomaty prawa fizyki, czy też odwrotnie jest w stosunku do fizyki metadziedziną.

              Dla wyjaśnienia tych właśnie problemów została opracowana metacybernetyka stanowiąca syntezę fizyki i cybernetyki, a także metadziedzinę w stosunku do nauk technicznych, biologicznych i społecznych (humanistycznych). Było to możliwe dzięki oparciu metacybernetyki na aksjomatycznej teorii poznania i jakościowej teorii informacji stworzonej przez głównego twórcę polskiej szkoły cybernetycznej Mariana Mazura, a następnie uogólnionej przeze mnie.

              Aksjomatyczna teoria poznania, ogólna jakościowa teoria informacji i metacybernetyka operują językiem i metodami, które - jak staram się wykazać w tej książce - mogą być narzędziem integracji nauki współczesnej. Chodzi przy tym nie tylko o to, że można przy ich użyciu opisywać, ale także w wielu wypadkach rozwiązywać zagadnienia z różnych dziedzin nauki. Warunkiem jest przy tym odpowiednio precyzyjne sformułowanie zagadnienia oraz jego dostatecznie ogólny charakter. Dla opisu i rozwiązywania specyficznych i szczegółowych problemów, którymi zajmują się wyspecjalizowane dziedziny nauki, konieczne jest stosowanie odpowiednich dla nich metod.

              Warto w tym miejscu dodać, że - podobnie jak nauka - również dwie inne wielkie dziedziny ludzkiego poznania - filozofia i sztuka, ulegają procesom coraz dalej posuniętej dezintegracji. Aksjomatyczna teoria poznania, ogólna jakościowa teoria informacji i metacybernetyka oferują język, i metodę analizy, które mogą być użyteczne dla integracji również tych dwu dziedzin, a ponadto określenia wzajemnych relacji sztuki, filozofii i nauki.

              Opisywaniu i rozwiązywaniu problemów interdyscyplinarnych poświęcone było seminarium, zorganizowane przez zmarłego w 2003 roku wybitnego polskiego antropologa Andrzeja Wiercińskiego, które odbywało się co dwa tygodnie, począwszy od jesieni 1994 roku, na Wydziale Zarządzania i Administracji Akademii Świętokrzyskiej (dawnej Wyższej Szkoły Pedagogicznej) w Kielcach, jak również coroczne Konferencje organizowane przez Zakład Antropologii Ogólnej i Politycznej tejże Akademii.

              Wiele fragmentów niniejszej książki było prezentowanych i dyskutowanych w trakcie powyższych seminariów i konferencji, a następnie publikowanych w okresie 1995-2003 r., w wydawanych przez Akademię Świętokrzyską (dawniej Wyższą Szkołę Pedagogiczną w Kielcach) periodykach i książkach wyszczególnionych w bibliografii.

              Niektóre prace przedstawiałem też w latach 2003 i 2004 na międzynarodowych konferencjach naukowych w Sewastopolu, organizowanych przez tamtejszą filię Humanistycznego Uniwersytetu Związku Profesorów w Sankt Petersburgu.


 

 

 

 

WSTĘP

 

 

              W odległej starożytności nauka była jedna, każdy naukowiec mógł ją uprawiać w całości, gdyż zasób informacji stanowiący ówczesną wiedzę był niewielki[1].

              W miarę przybywania nowych informacji dostarczanych przez naukę zaczęła się ona dzielić na dziedziny, które z kolei dzieliły się na działy, te z kolei na specjalności - i to coraz węższe. W ten sposób następował proces znany jako atomizacja nauki. Powstały setki wąskich specjalności, wytwarzających swoją odrębną terminologię i traktujących badaną rzeczywistość tak, jak gdyby dzieliła się ona na odpowiadające poszczególnym specjalnościom zakresy. Atomizacja nauki pociągała za sobą atomizację dostarczanego przez nią obrazu rzeczywistości. Obraz świata w ujęciu nauki tradycyjnej stawał się coraz bardziej fragmentaryczny - podzielony na segmenty odpowiadające poszczególnym specjalnościom naukowym czyli monodyscyplinom, badającym określone fragmenty rzeczywistości. „W rezultacie nauka tradycyjna stała się sumą odgraniczonych od siebie monodyscyplin, wytwarzających sobie własną terminologię i traktujących przypisany sobie zakres rzeczywistości jako własny teren, poza który samemu się nie wychodzi i na który innych się nie wpuszcza[2]. Niezależnie od monodyscyplin zajmujących się konkretami rozwijały się dyscypliny zajmujące się abstrakcjami, a mianowicie matematyka i logika[3].

              Logika i matematyka zajmowały się rozwiązywaniem abstrakcyjnych problemów interdyscyplinarnych - tj. tak ogólnych, że otrzymane wyniki mogą być wykorzystane w wielu różnych monodyscyplinach. Możemy je w związku z tym nazwać


 

Rys. 1. Schematyczne przedstawienie struktury nauki tradycyjnej i nowoczesnej


interdyscyplinami abstrakcyjnymi. W tradycyjnej nauce matematyka i logika były wykorzystywane głównie w naukach przyrodniczych, zaś w stosunkowo małym stopniu wykorzystywała je humanistyka.

                            Teoretycznie również interdyscyplinarny charakter ma fizyka i chemia, które tym zasadniczo różnią się od logiki i matematyki, że zajmują się badaniem konkretnych obiektów materialnych. W związku z tym możemy je nazwać interdyscyplinami konkretnymi. Również ich wyniki - podobnie jak matematyki i logiki - były w tradycyjnej nauce wykorzystywane głównie przez przyrodników, a prawie w ogóle nie korzystali z nich humaniści.

              Mimo więc istnienia interdyscyplin abstrakcyjnych - logiki i matematyki - oraz konkretnych - fizyki i chemii, nauka tradycyjna miała strukturę zatomizowaną, którą schematycznie przedstawia lewa strona rysunku 1.

              Rozwiązywanie praktycznych problemów zmusiło do współdziałania specjalistów z różnych dziedzin. Powstała w związku z tym potrzeba wprowadzenia ogólnej terminologii umożliwiającej porozumienie między specjalistami z różnych monodyscyplin, a także zastosowanie metod badania rzeczywistości nadających się do stosowania w każdej konkretnej monodyscyplinie, jak również pozwalających na wykrywanie ogólnych praw rządzących zjawiskami, które przy tradycyjnym podejściu są przedmiotem zainteresowania różnych monodyscyplin. Powyższe postulaty spełnia powstała w połowie XX wieku cybernetyka (sama nazwa cybernetyka była używana już w starożytności), która w rozumieniu jej twórców ma być interdyscypliną konkretną zajmującą się badaniem procesów sterowania - zarówno w organizmach żywych jak i urządzeniach technicznych, a także w społeczeństwie[4].

              Elementami procesu sterowania jest: 1. decydowanie - czyli wybór wariantu, który ma zostać zrealizowany w wyniku danego procesu, 2. realizacja wybranego wariantu.

              W związku z szerokimi zastosowaniami, już w początkowym okresie swego rozwoju, cybernetyka podzieliła się na trzy następujące działy:

              1) cybernetykę techniczną (technocybernetykę),

              2) cybernetykę biologiczną (biocybernetykę),

              3) cybernetykę społeczną (socjocybernetykę).

              Pierwsza z nich zajmuje się badaniem procesów sterowania urządzeń technicznych, druga bada te procesy w organizmach żywych, trzecia zaś w społeczeństwach. Na pograniczu biocybernetyki i socjocybernetyki rozwinęła się psychocybernetyka, badająca procesy sterowania zachodzące w organizmie ludzkim i psychice człowieka. Natomiast cybernetyka ogólna zajmuje się badaniem praw rządzących wszelkimi procesami sterowania.

              Początkowo najszybciej rozwijała się cybernetyka techniczna zaś cybernetyka ogólna, biocybernetyka i socjocybernetyka pozostawały pod jej przemożnym wpływem. Ponieważ zaś urządzenia techniczne, jeżeli się nie psują, są systemami deterministycznymi - tzn. takimi, których następne stany można teoretycznie w sposób dokładny (tj. z prawdopodobieństwem równym 1) przewidywać na podstawie znajomości ich stanów poprzednich - zatem również organizmy żywe i społeczeństwa starano się w cybernetyce traktować jako systemy deterministyczne; w rzeczywistości są one jednak systemami probabilistycznymi - tzn. takimi, których następne stany możemy na podstawie znajomości stanów poprzednich przewidywać z prawdopodobieństwem istotnie różnym od 1. Nic więc dziwnego, że w pierwszych latach rozwoju zarówno cybernetyki biologicznej jak i społecznej, ich osiągnięcia były znacznie mniejsze niż oczekiwano, zaś cybernetyka ogólna niewiele różniła się od cybernetyki technicznej.

              Zarówno organizmy żywe jak i społeczeństwa są nie tylko systemami probabilistycznymi lecz również systemami autonomicznymi - tzn. takimi, które mogą się w pewnym zakresie sterować zgodnie z własnym interesem, lub inaczej mówiąc, mają zdolność do sterowania się i mogą przeciwdziałać utracie tej swojej zdolności. Ich egzystencję można też rozpatrywać jako proces sterowania, którego celem jest utrzymanie zdolności do samosterowania.

              W 1966 roku została opublikowana książka polskiego cybernetyka Mariana Mazura pt. Cybernetyczna teoria układów samodzielnych[5], w której podana została, opracowana przez jej Autora, całkowicie oryginalna teoria systemów autonomicznych - zwanych też układami samodzielnymi. Teoria M. Mazura dostarczyła narzędzi odpowiednich do analizy procesów sterowniczych odbywających się w organizmach żywych, a także w społeczeństwie. Dopiero po powstaniu teorii Mazura, cybernetyka społeczna - przede wszystkim polska - mogła w istotny sposób posunąć naprzód swoje badania[6].

              Cybernetyka miała istotne znaczenie dla integracji nowoczesnej nauki w XX wieku. Na tym się jednak sprawa nie kończy, gdyż cybernetyka może też być traktowana jako nowa teoria związków przyczynowych. Wprowadzone w cybernetyce pojęcie sprzężenia zwrotnego, to inny niż tradycyjny sposób traktowania związków przyczynowo-skutkowych, przy którym przyczyna może się stać skutkiem, a skutek przyczyną.

              W tradycyjnej, fizykalnej koncepcji związków przyczynowych zakładamy, że stany wcześniejsze są przyczyną stanów późniejszych, natomiast w cybernetyce zakładamy, że pewne wybrane stany późniejsze - czyli cele - są przyczyną stanów wcześniejszych, do których zmierzają. Metacybernetyczna koncepcja (teoria) związków przyczynowych jest syntezą koncepcji tradycyjnej i cybernetycznej.

              Na bazie metacybernetyki powstał interdyscyplinarny język, w którym można opisywać nie tylko zjawiska, których badaniem zajmują się nauki przyrodnicze, ale również i te, które są przedmiotem zainteresowania nauk humanistycznych.

              Równolegle z cybernetyką rozwinęła się też teoria informacji, stanowiąca teoretyczną podstawę informatyki, która znalazła bardzo szerokie zastosowanie zarówno w nauce, gospodarce jak i innych dziedzinach życia społecznego. Często też myli się cybernetykę z informatyką - np. po powstaniu internetu upowszechniło się pojęcie przestrzeni cybernetycznej, które prawidłowo - zgodnie z regułami semantyki - powinno być zastąpione pojęciem przestrzeni informatycznej.

                            W 1948 roku opublikowana została praca C. E. Shannona A Mathematical Theory of Communication[7], która zapoczątkowała burzliwy rozwój ilościowej teorii informacji.

                            Pod względem sposobu traktowania samego terminu informacja, w literaturze z zakresu ilościowej teorii informacji, można wyróżnić trzy grupy publikacji.

                            Jedną z nich stanowią publikacje, w których ilość informacji jest nazywana po prostu informacją, (...).

                            Inną grupę stanowią publikacje, których autorzy używają wyrazu informacja bez żadnych wyjaśnień, w takich wyrażeniach jak np. przenoszenie informacji, przekazywanie informacji za pomocą języka, informacja zawarta w zbiorze symboli itp. jak gdyby zakładając, że chodzi o pojęcie nie budzące wątpliwości.

                            I wreszcie są publikacje, których autorzy starają się jakoś wyjaśnić czytelnikom, co ich zdaniem należy uważać za informację. W skrajnych przypadkach jedni ograniczają się do paru zdań objaśniających informację za pomocą innych, o równie nieokreślonym znaczeniu, wyrazów jak np. wiadomość, treść itp., inni przeprowadzają rozległe dyskusje nad rozmaitymi aspektami informacji, analizują trudności sformułowania ścisłej definicji, porównują poglądy różnych autorów, aby w końcu przedstawić sprawę jako otwartą i pozostawić czytelnikom wyrobienie sobie poglądu w gąszczu niejasności i kontrowersji[8].

                            Shannon, zdając sobie być może sprawę z mogącego wprowadzić w błąd sensu słowa informacja, nadał swej pracy tytuł Matematyczna teoria telekomunikacji[9].

                            Czynniki semantyczne mogą powodować, że ten sam zbiór słów mieć będzie różne znaczenie dla różnych słuchaczy. Shannon (1948) skomentował to następująco: Semantyczna strona telekomunikacji jest bez znaczenia dla problemów technicznych[10].

                            Podsumowując powyższe rozważania można stwierdzić, że ilościowa teoria informacji, nie podaje definicji informacji traktując ją jak pojęcie pierwotne (choć z reguły nie stwierdza się tego explicite w publikacjach z tej dziedziny). Analogicznie traktuje to pojęcie wartościowa teoria informacji, której początek dał J. Marshak[11].

                            W tej sytuacji prawdziwość systemu twierdzeń ilościowej teorii informacji oznacza - podobnie jak w innych dziedzinach matematyki - ich wewnętrzną niesprzeczność, fałszywość zaś to nic innego jak sprzeczność odnośnych twierdzeń.

                            Marian Mazur zainteresował się odpowiedzią na pytania: czym w istocie jest informacja? jakie są jej rodzaje? na czym polegają procesy informowania? Dla rozwiązania tego zakresu zagadnień stworzył on dziedzinę nauki, którą nazwał jakościową teorią informacji[12].

                            M. Mazur zdefiniował informację jako transformację jednego komunikatu asocjacji informacyjnej w drugi komunikat tej asocjacji[13]. Przy czym przez transformację rozumiemy proces, jakiemu należy poddać jeden z komunikatów asocjacji, aby otrzymać drugi komunikat tej asocjacji[14]. Procesy zaś podzielił na robocze, polegające na zmianach energomaterialnych oraz sterownicze - polegające na zmianach strukturalnych, w których istotne jest występowanie różnic między określonymi stanami fizycznymi[15].

                            Powyższe pojęcie informacji dotyczy tylko procesów fizykalnych, nie ma zaś zastosowania do procesów abstrakcyjnych, których badaniem zajmuje się np. ogólna teoria systemów złożonych[16]. Powstała więc konieczność stworzenia ogólnej jakościowej teorii informacji, której pojęcia mogą być stosowane zarówno do analizy energomaterialnych jak i abstrakcyjnych obiektów i procesów.

                            Zaproponowane przez cybernetykę podejście można nazwać poziomą integracją nauki, potrzebna jest jednak również integracja pionowa, którą można przeprowadzić - zarówno w dyscyplinach abstrakcyjnych jak i konkretnych - na bazie powstałej niedawno aksjomatycznej teorii poznania, zaś w dyscyplinach konkretnych na

bazie metacybernetyki. Strukturę nowoczesnej nauki uwzględniającą rolę metacybernetyki przedstawia prawa strona rysunku 1.

              W książce tej spróbujemy wyjaśnić na czym ona polega i jakie ma zastosowania.

              Nauka jest jedną z dziedzin ludzkiego poznania, oprócz niej można tu wskazać filozofię i sztukę, które rozwinęły się znacznie wcześniej od niej. Warto więc zająć się relacjami między nimi.

 

              Jak wynika z prehistorycznych wykopalisk, ludzie poznając zarówno siebie jak i obiekty otaczającego ich świata, starali się przypisywać im określone oznaczenia - symbole, inaczej mówiąc oznaczali je symbolami. Symbole te stanowiły obrazy[17] określonych obiektów świata rzeczywistego lub relacji między nimi, a miały charakter dostosowany do rodzaju zmysłów ludzkich, przy czym dominowały symbole oddziałujące na wzrok - czyli wizualne (wzrokowe) lub na słuch - czyli audialne (słuchowe), inne (np. dotykowe, węchowe) grały w społecznych procesach poznawczych stosunkowo mniejszą rolę.

              Symbole wizualne podzieliły się na:

              a) graficzne (obrazowe, ikoniczne) - na których bazie powstała grafika, malarstwo, pismo obrazkowe wreszcie rysunek techniczny;

              b) alfanumeryczne - na których bazie rozwinęło się pismo literowe stanowiące zapis mowy oraz logika i matematyka;

              c) inne - takie jak np. gesty, mimika twarzy itp.

              Symbole audialne podzieliły się na:

              a) werbalne - na których opiera się mowa;

              b) niewerbalne, które z kolei możemy podzielić na: 1. tonalne - na których bazie powstała muzyka, 2. nietonalne - np. niezwerbalizowane okrzyki sygnalizujące ból, strach, wesołość itp.

              Powstały też wizualne odpowiedniki symboli audialnych - np. zapis nut i słów, oraz audialne odpowiedniki symboli wizualnych - np. opowiadanie treści reprezentacji graficznych oraz głosowe odczytywanie symboli alfanumerycznych.

              Zbiór symboli nazywamy tekstem.

              Badaniem znaczenia symboli zajmuje się semiotyka, zaś badaniem znaczenia słów - semantyka.

              Symbole mogą oznaczać jakiś jeden konkretny obiekt - np. portret określonego człowieka lub jego numer ewidencyjny (np. pesel), albo też oznaczać cały zbiór obiektów cz...

Zgłoś jeśli naruszono regulamin