Artykuły i opinie
Prof. E. Mączyńska: DEHUMANIZACJA – NOWA EPIDEMIA XXI W. Dehumanizacja jako schorzenie społeczne
niedziela, 20 października 2024
GAZETA SGH: Tekst ten stanowi pierwszą część rozważań na temat sztucznej inteligencji (Artificial Intelligence – AI) w kontekście związanego z jej rozwojem narastania ryzyka dehumanizacji.
O tym, że takie ryzyko istnieje, przekonują liczne badania i publikacje. Kwestie te były też sygnalizowane na łamach Gazety SGH, m.in. w eseistycznym cyklu (vide Gazeta SGH nr 374, 375, 378, 379), w którym przedstawiane były dobrodziejstwa, ale też liczne ciemne strony AI i związane z tym wyzwania. Do takich ciemnych stron należy m.in. narastanie ryzyka dehumanizacji. Kwestia ta wymaga specjalnej refleksji, zwłaszcza w kontekście potrzeby kształtowania zasad wdrażania AI, zasad zorientowanych na dobro człowieka, przeciwdziałających dehumanizacji, czyli odczłowieczaniu. W tym kontekście już nawet samo pojęcie „sztuczna inteligencja” jako pojęcie przeciwstawne inteligencji ludzkiej wskazuje na potrzebę krytycznej refleksji. Jest to istotne tym bardziej, że nawet sposób werbalizacji i promocji AI cechuje przejawy dehumanizacji w wielu obszarach. Stąd też językoznawcy, a zwłaszcza eksperci z zakresu kognitywistyki (Cognitive Sciences), czyli nauki zajmującej się obserwacją oraz analizą i modelowaniem działania zmysłów, mózgu i umysłu ludzkiego, wskazują na potrzebę przeciwdziałania dehumanizacji. Wskazują zarazem na rolę, jaką może tu odegrać właśnie nauka kognitywna poprzez wprowadzanie do dyskursu bogatszego obrazu ludzkiego poznania i promując proludzkie ścieżki rozwoju.
SZTUCZNA INTELIGENCJA I ŚWIAT W PUNKCIE ZWROTNYM. KWESTIA DEHUMANIZACJI
Przesilenie cywilizacyjne, jakie przynosi ogarniająca obecnie świat czwarta rewolucja przemysłowa (Rewolucja 4.0), z jej niebywałym dynamizmem rozwoju technologii cyfrowych, w tym – wciąż jeszcze niemożliwym do dokładniejszego oszacowania – potencjału sztucznej inteligencji, oznacza, że świat znajduje się w punkcie zwrotnym. Do niedawna jeszcze niepodzielnie panująca cywilizacja industrialna, jako następczyni cywilizacji rolnej, ustępuje bowiem miejsca nowej, wciąż jeszcze nie w pełni odgadnionej, a nawet różnie nazywanej cywilizacji, której symbolem, wyznacznikiem jest właśnie sztuczna inteligencja. AI to rewolucyjna technologia, rewolucjonizująca rozmaite aspekty ludzkiego życia, w różnych jego formach i wymiarach. Jak niemal każda technologia, także AI jest narzędziem obosiecznym, swego rodzaju obosieczną bronią, z niebywałą siłą kreatywności, ale także destrukcji. W takich warunkach jednym z najtrudniejszych wyzwań, nie tylko w zarządzaniu na różnych szczeblach instytucjonalnych, lecz także w codziennym życiu ludzi, staje się optymalne wykorzystywanie jej potencjału. Optymalne, czyli najlepsze w istniejących warunkach, umożliwiające w miarę pełne wykorzystywanie dobrodziejstw AI, przy jednoczesnym niedopuszczaniu do uaktywniania się jej ciemnych stron, negatywnie rzutujących na jakość życia ludzi. Do takich ciemnych stron należy m.in. właśnie ryzyko narastania dehumanizacji. Identyfikacja wpływu AI na urzeczywistnianie się takiego ryzyka staje się warunkiem przeciwdziałania temu.
Przeciwdziałanie takie staje się bowiem warunkiem koniecznym trwałego, potrójnie zharmonizowanego postępu w skali mikroekonomicznej i rozwoju społeczno-gospodarczego w wymiarze makroekonomicznym, tj. rozwoju, w którym wzrost gospodarczy gwarantuje postęp społeczny i ekologiczny, a tym samym poprawę jakości życia i pracy ludzi, kształtując dobrostan społeczny. Dehumanizacja, odczłowieczanie jest zaś tego zaprzeczeniem, swego rodzaju schorzeniem społecznym. To zjawisko tym bardziej groźne, że dzisiejsza społeczno-gospodarcza, globalna, geopolityczna rzeczywistość niemal codziennie dostarcza dowodów nasilającej się entropii, czyli chaosu, bezładu. Świat staje się coraz bardziej spękany, chwiejny, co przekłada się na brak poczucia bezpieczeństwa wśród ludzi. Przyczyny nieładu i narastania kryzysogenności są wielce złożone, ale zarówno historia przemian społeczno-gospodarczych, jak i studia literatury przedmiotu wskazują, że entropijne zjawiska narastają właśnie w warunkach cywilizacyjnych przełomów.
Przełom, jaki przynosi rozwój sztucznej inteligencji, skutkuje głębokimi przemianami w życiu społeczno-gospodarczym. Dotyczy to także wielu aspektów codziennego życia ludzi. Wskazuje to tym samym na fundamentalne znaczenie pogłębionych analiz dotyczących istoty i cech AI, a zwłaszcza następstw jej wdrażania. Zarazem wskazuje to na konieczność ostrożności, uwzględniania nie tylko korzyści, ale także negatywnych następstw dla ludzi, w tym następstw ekonomicznych, psychologicznych, emocjonalnych, etycznych i innych. Nieprawidłowości w sferze wdrażania AI mogą skutkować nie tylko wynaturzeniami w sferze ekonomicznej, w tym na rynku pracy, w sferze ochrony prywatności, a także – co jest szczególnie istotne – zagrożeniami dla naszego człowieczeństwa. Dobrodziejstwa sztucznej inteligencji nie mogą zatem przysłonić jej ciemnych stron, negatywnych cech ubocznych. Warto w związku z tym wciąż przypominać przestrogi formułowane przez wielu intelektualistów, którzy niemal profetycznie dostrzegali związane z technologicznymi przemianami ryzyko, w tym ryzyko dehumanizacji i innych, niesłużących rozwojowi ludzkości zjawisk. Przestrzegali, że od cech ubocznych nie jest wolna niemal żadna technologia. Zwracał na to uwagę m.in. Albert Einstein, który już w 1946 r. w liście do intelektualisty Ottona Juliusburgera pisał: „Jestem przekonany, że przerażający upadek moralności, jakiego jesteśmy świadkami w dzisiejszych czasach, jest rezultatem mechanizacji i dehumanizacji naszego życia – zgubnych produktów ubocznych mentalności naukowo-technicznej. Nostra culpa!”.
Dlatego też tak ważne jest, by rzeczona przez Einsteina nostra culpa (nasza wina) nie urzeczywistniała się. Jest to istotne tym bardziej, że dzisiejszą rzeczywistość charakteryzuje coraz silniejsza zależność ludzi od technologii cyfrowych. Co gorsza, sztuczna inteligencja może być (i jest) też wykorzystywana w celach dezinformacji, w hybrydowych wojnach, cyberatakach, w masowym rozpowszechnianiu fake newsów czy deepfake’ów, czyli tworzeniu fałszywych informacji, wypowiedzi i fałszywych istnień (avatarów) przypisywanych rzeczywistym osobom.
DEHUMANIZACJA – ISTOTA I DEFINICYJNA ZŁOŻONOŚĆ
Jak dowodzi historia świata, pełna charakterystyka dotycząca tak antyludzkich działań, jak ludobójstwo, wojny, przemoc itp., zjawiska dehumanizacji występowały z różnym natężeniem na wszystkich etapach rozwoju ludzkości. Mimo to istota dehumanizacji wciąż jeszcze nie jest dostatecznie rozpoznana od strony naukowej. Dlatego na uwagę zasługuje publikacja z 2024 r. prof. Marii Kronfeldner z Central European University Routledge Handbook of Dehumanization. Dzieło to traktowane jest jako pierwsza kompleksowa i multidyscyplinarna analiza na temat dehumanizacji. Zawiera przegląd kluczowych pojęć, zagadnień i wyników badań nad dehumanizacją i jej pełnej okrucieństwa historią. Maria Kronfeldner charakteryzuje różne formy dehumanizacji, paradoksalność tego zjawiska oraz jego związki m.in. z nienawiścią. Rozpatruje te kwestie także z perspektywy sprawcy i ofiary oraz w kontekście śmierci społecznej i strachu, odczuwanego niekiedy wobec robotów, które stają się „zbyt ludzkie”. Już nawet tak skrótowa informacja o tej publikacji wskazuje, że dehumanizacja to pojęcie bardzo szerokie, interdyscyplinarne, co zarazem skutkuje wielością jego definicji. Maria Kronfeldner wskazuje na definicyjne trudności, podkreślając, że w tym przypadku w nauce nie ma zgody definicyjnej. Dlatego też już we wprowadzeniu do swego dzieła zaproponowała dość ogólną definicję, zgodnie z którą „Dehumanizacja ma miejsce, gdy ludzie są przedstawiani, uważani lub traktowani jako nie-ludzie lub mniej ludzcy”. Z kolei Emily M. Bender, profesor lingwistyki z University of Washington, nawiązując do tej i innych definicji, wskazuje na trzy przejawy dehumanizacji, definiując ją jako:
Stan poznawczy polegający na niezdolności do postrzegania innego człowieka jako w pełni człowieka. Czyny, które wyrażają ten stan poznawczy lub w inny sposób pociągają za sobą stwierdzenie, że inny człowiek nie jest w pełni człowiekiem. Doświadczenie bycia poddawanym czynom, które wyrażają brak postrzegania czyjegoś człowieczeństwa i/lub negują ludzkie doświadczenie lub prawa człowieka.
To tylko jedne z wielu definicji dehumanizacji. Definicje te wskazują nie tylko na złożoność tego pojęcia, lecz także na znaczenie warstwy narracyjnej. Ma ona szczególne znaczenie w odniesieniu do AI rozpatrywanej w kontekście dehumanizacji.
SZTUCZNA INTELIGENCJA I DEHUMANIZACYJNE METAFORY
W publikacjach dotyczących sztucznej inteligencji, zwłaszcza w neuronauce, dość powszechna jest metafora stanowiąca porównanie mózgu do komputera i odwrotnie. Metafora „mózg jest komputerem” oznacza, że tym samym „komputer jest mózgiem”. Kwestia (nie) stosowności takiej metafory oraz zasadności jej stosowania w nauce jest przedmiotem ostrych sporów. Kwestionowana jest zarazem zasadność terminu „sztuczna inteligencja” i podkreślana potrzeba nowego leksykonu w tym obszarze. (Krytykiem pojęcia AI jest na gruncie polskim m.in. Andrzej Kisielewicz – vide Gazeta SGH nr 379). Jest to istotne tym bardziej, że z wielu badań wynika, iż język narracja zawsze ma wpływ na kształtowanie i postrzeganie społeczno-gospodarczej rzeczywistości.
W debatach na ten temat na margines spychana jest jednak kwestia wpływu stosowanych metafor na kształtowanie interakcji społeczeństwa z AI oraz na narastanie ryzyka dehumanizacji. Dzieje się tak, mimo że metafory tego typu prowadzą do ocen obniżających rangę ludzkiego umysłu na rzecz „mądrości komputera”. Ma to tym samym wymiar dehumanizacyjny. Niesie zarazem inne negatywne następstwa, w tym etyczne, poznawcze, decyzyjne itp. Jak zauważa Emily M. Bender, w tego typu metaforycznej narracji „racjonalność” jest bowiem sytuowana wyżej niż „emocjonalność”, co zarazem oznacza przyznawanie większej władzy tym, którzy wykazują bardziej „maszynowe” cechy. Z kolei profesor Jan Kreft z Politechniki Gdańskiej, szef Centrum Badań nad Zarządzaniem Algorytmicznym, w wywiadzie Jaki będzie świat w epoce AI? zauważa, że „nigdy jeszcze tak wielu nie używało tak powszechnie technologii, którą tak niewielu rozumie. Wcześniej rozwój technologii nie był tak bardzo zmitologizowany i oderwany od humanistycznej refleksji”. Wiele wskazuje, iż rzutuje to negatywnie na rozwój kapitału społecznego. Ale o tym w kolejnej części tego tekstu.
prof. dr hab. Elżbieta Mączyńska-Ziemacka, SGH, honorowa prezes Polskiego Towarzystwa Ekonomicznego