Mianem wstępu chciałbym nawiązać do Biblii, w szczególności do Księgi Rodzaju. W Księdze Rodzaju jest napisane, że Bóg stworzył Adama i Ewę na swoje podobieństwo. My tworzymy różne AI, też jakby upodabniając je często do samych siebie. Czy to nie jest zabawa w Boga?
P.P.: Za literaturą przedmiotu warto odróżnić dwa rozumienia sztucznej inteligencji, kilkukrotnie zresztą przywoływane na dzisiejszej konferencji, w związku z którą rozmawiamy. Obecnie wykorzystywane SI, zdolne do maszynowego uczenia się i realizacji celu zadanego w ramach pewnej dziedziny (np. gry w szachy), określa się mianem „wąskiej/słabej sztucznej inteligencji”. Czym innym jest z kolei „ogólna/silna sztuczna inteligencja”, która miałaby dysponować autonomią decyzyjną i zdolnością do adaptacji do różnych dziedzin, a która na dzień dzisiejszy wydaje się futurystyczną wizją (wyróżnia się jeszcze „super SI”, samoświadomą i wielokrotnie przewyższającą zdolności człowieka – to, co dalej powiem o ogólnej/silnej SI, odnosi się też do super SI, ale tę ostatnią tutaj pominiemy – to jeszcze bardziej futurystyczna wizja). Wąska/słaba SI, nawet jeśli jej sposób funkcjonowania nie jest dla nas w pełni transparentny, pozostaje ludzkim narzędziem. Obawy, które kryją się za Pana pytaniem, mogą być natomiast zasadne w przypadku ogólnej/silnej SI. Próby stworzenia ogólnej sztucznej inteligencji są w pewnym sensie próbami stworzenia sztucznego człowieka. I chociaż mówimy o futurystycznej wizji, której prawdopodobieństwa realizacji nie jesteśmy w stanie obecnie określić, to ewentualne pojawienie się takiej „istoty” otwiera zupełnie nowe przestrzenie dyskusji, ponieważ mowa o bycie, który w jakimś sensie miałby być autonomicznym podmiotem.
Kontynuując kwestię futuryzmu, na konferencji Pani profesor Agnieszka Lekka-Kowalik poruszyła kwestię transhumanizmu, kwestię nieśmiertelnego, wirtualnego życia. Czy będzie to kiedykolwiek możliwe?
P. P.: Nie wiem, czy potrafię odpowiedzieć na to pytanie. Zagadnienie transhumanizmu jest w literaturze filozoficznej dyskutowane od dłuższego czasu. Chodzi mianowicie o program wieloaspektowego ulepszania człowieka (genetycznie, cybernetycznie, farmakologiczne, itd.), które na początku ma przyjmować formę usprawnień (lepsza pamięć i zdolności kognitywne, lepsze osiągi fizyczne, dłuższe życie, itd. – stadium transludzkie), a następnie umożliwić całkowite przekroczenie standardowych dla naszego gatunku ograniczeń biologicznych i psychologicznych, takich jak starzenie się, śmierć, erozja systemu motywacyjnego (stadium postludzkie), np. poprzez zmianę „nośnika świadomości” na komputerowy. Podobnie jak w przypadku ogólnej SI mówimy o wizji futurystycznej, której prawdopodobieństwa realizacji nie jesteśmy w stanie określić. Obecnie korzystamy już z implantów i protez, a nasze możliwości technologiczne w tym zakresie zapewne ogromnie wzrosną w przyszłości. Ale czy kiedykolwiek uda się człowiekowi oderwać umysł od „biologicznego substratu”, a nie po prostu stworzyć niemal idealnego, komputerowego naśladowcę konkretnej osoby? Tego nie wiemy.
Przechodząc do kwestii bardziej przyziemnych. Ostatnio powstał nowy chatbot Elona Muska, który nazywa się Grok i ma być sarkastyczną odpowiedzią na chat GPT[1]. Ma odpowiadać na wszelkie kontrowersyjne pytania, wszelkie, na które chat GPT nie odpowie. Zastanawiam się, czy to nie jest o krok za daleko? Czy tworzenie sztucznych inteligencji, które mogą odpowiadać na tematy kontrowersyjne, nie jest w jakimś stopniu przekroczeniem granic moralności?
P.P.: Wydaje mi się, że tak naprawdę nie pyta Pan w tym momencie o problematykę moralną powiązaną z rozwojem technologii SI. Rzecz dotyczy innego zagadnienia: wolności słowa. I mamy tutaj dwie podstawowe intuicje moralne, które mogą wchodzić w kolizję. Po pierwsze, intuicja bezpieczeństwa. Nie wszystkie treści uznaje się za korzystne i bezpieczne (np. propagandę czy przekonania rasistowskie). Wydaje się, że do tych treści, które są szczególnie szkodliwe, należałoby ograniczyć dostęp. Po drugie, intuicja wolności. Doświadczenie historyczne systemów totalitarnych, doświadczenie funkcjonowania w realiach demokratycznego państwa prawa, wolnego rynku oraz nieskrępowanego cenzurą dyskursu naukowego podpowiadają, że nikt nie ma monopolu na prawdę i słuszność, a najskuteczniejszym sposobem docierania do nich jest ścieranie się różnych opinii. I dlatego tzw. zachodni system społeczno-polityczny, przynajmniej w teorii, posiada bezpieczniki chroniące przed odbieraniem obywatelom różnych form wolności, w tym swobody posiadania i wyrażania własnej opinii. Jeśli chodzi o mnie, to w inspiracji klasyczną myślą liberalną uważam, że to nie ekstremistyczne opinie w ramach swobodnej wymiany idei są zagrożeniem, lecz jest nim przyznanie komuś władzy i możliwości decydowania o tym, do jakich treści ludzie mogą mieć dostęp. To prosta droga do nadużyć. Rozwiązaniem problemu treści szkodliwych czy ekstremistycznych nie jest cenzura, lecz edukacja obywatelska w duchu krytycznego myślenia.
Brytyjski rząd przeznaczył ostatnio 2 miliony funtów na badanie nad AI, które mogłoby znaleźć zastosowanie w szkołach. Czy wprowadzenie takiej AI nie zagraża degradacji zawodu nauczyciela do poziomu osoby, która spełnia tylko proste czynności?
P.P.: Jeśli dalej mówimy o wąskiej SI, to jest to narzędzie i jak każde narzędzie samo w sobie jest neutralne, to my możemy je wykorzystać w dobrym albo złym celu. Samochodem mogę wozić swoje dzieci na zajęcia plastyczne, mogę też kogoś zabić pod wpływem alkoholu lub w akcie zemsty. Złe wykorzystanie jakiegokolwiek narzędzia w edukacji to takie, które godzi w wartości istotne w edukacji, takie jak budowanie motywacji wewnętrznej do uczenia się i zdobywania wiedzy, rozwój kompetencji komunikacyjnych i analitycznych, wychowanie obywatelskie, pobudzanie zdolności do koncentracji itd. Zapewne istnieje jakiś próg edukacyjnych ułatwień, po przekroczeniu którego trudno mówić o realizacji tych wartości. Ale SI i ogólnie, technologie informatyczne w edukacji to także szansa. Na przykład w nauce języków obcych bardzo ważny jest stały, regularny kontakt z językiem (nawet jeśli jest to tylko kilka minut dziennie). A ponieważ nie jest to proste, zwłaszcza w aspekcie motywacji, możemy wykorzystać algorytm, który będzie „zarządzał” moją nauką i w ten sposób okaże się pomocnym narzędziem. Jeśli więc, nieco stereotypowo, pytamy „SI w edukacji – szansa czy zagrożenie?”, to wydaje się, że prawidłowa odpowiedź brzmi tak: zarówno szansa, jak i zagrożenie.
Doktor Paweł Pijas – adiunkt w Zakładzie Historii Filozofii Starożytnej, Średniowiecznej i Nowożytnej Instytutu Filozofii Uniwersytetu Gdańskiego. Zainteresowania badawcze: etyka, filozofia emocji, metafilozofia.
