dr Paweł Pijas (UG): w pewnym sensie próbujemy stworzyć sztucznego człowieka

Czy tworzenie sztucznej inteligencji jest współczesną formą “zabawy w Boga”? Jak rozumienie sztucznej inteligencji wpływa na nasze postrzeganie przyszłości, wolności słowa, a nawet edukacji? Te pytania stają się coraz bardziej istotne w dzisiejszym świecie, gdzie granice między technologią a humanistyką zacierają się. W naszym wywiadzie eksplorujemy te zagadnienia, bazując na niedawnej konferencji, gdzie eksperci z różnych dziedzin zastanawiali się nad przyszłością i etyką sztucznej inteligencji.
Ten materiał powstał dzięki Waszemu wsparciu. Postaw mi kawę na buycoffee.to

Mianem wstępu chciałbym nawiązać do Biblii, w szczególności do Księgi Rodzaju. W Księdze Rodzaju jest napisane, że Bóg stworzył Adama i Ewę na swoje podobieństwo. My tworzymy różne AI, też jakby upodabniając je często do samych siebie. Czy to nie jest zabawa w Boga?

P.P.: Za literaturą przedmiotu warto odróżnić dwa rozumienia sztucznej inteligencji, kilkukrotnie zresztą przywoływane na dzisiejszej konferencji, w związku z którą rozmawiamy. Obecnie wykorzystywane SI, zdolne do maszynowego uczenia się i realizacji celu zadanego w ramach pewnej dziedziny (np. gry w szachy), określa się mianem „wąskiej/słabej sztucznej inteligencji”. Czym innym jest z kolei „ogólna/silna sztuczna inteligencja”, która miałaby dysponować autonomią decyzyjną i zdolnością do adaptacji do różnych dziedzin, a która na dzień dzisiejszy wydaje się futurystyczną wizją (wyróżnia się jeszcze „super SI”, samoświadomą i wielokrotnie przewyższającą zdolności człowieka – to, co dalej powiem o ogólnej/silnej SI, odnosi się też do super SI, ale tę ostatnią tutaj pominiemy – to jeszcze bardziej futurystyczna wizja). Wąska/słaba SI, nawet jeśli jej sposób funkcjonowania nie jest dla nas w pełni transparentny, pozostaje ludzkim narzędziem. Obawy, które kryją się za Pana pytaniem, mogą być natomiast zasadne w przypadku ogólnej/silnej SI. Próby stworzenia ogólnej sztucznej inteligencji są w pewnym sensie próbami stworzenia sztucznego człowieka. I chociaż mówimy o futurystycznej wizji, której prawdopodobieństwa realizacji nie jesteśmy w stanie obecnie określić, to ewentualne pojawienie się takiej „istoty” otwiera zupełnie nowe przestrzenie dyskusji, ponieważ mowa o bycie, który w jakimś sensie miałby być autonomicznym podmiotem.

Kontynuując kwestię futuryzmu, na konferencji Pani profesor Agnieszka Lekka-Kowalik poruszyła kwestię transhumanizmu, kwestię nieśmiertelnego, wirtualnego życia. Czy będzie to kiedykolwiek możliwe? 

P. P.: Nie wiem, czy potrafię odpowiedzieć na to pytanie. Zagadnienie transhumanizmu jest w literaturze filozoficznej dyskutowane od dłuższego czasu. Chodzi mianowicie o program wieloaspektowego ulepszania człowieka (genetycznie, cybernetycznie, farmakologiczne, itd.), które na początku ma przyjmować formę usprawnień (lepsza pamięć i zdolności kognitywne, lepsze osiągi fizyczne, dłuższe życie, itd. – stadium transludzkie), a następnie umożliwić całkowite przekroczenie standardowych dla naszego gatunku ograniczeń biologicznych i psychologicznych, takich jak starzenie się, śmierć, erozja systemu motywacyjnego (stadium postludzkie), np. poprzez zmianę „nośnika świadomości” na komputerowy. Podobnie jak w przypadku ogólnej SI mówimy o wizji futurystycznej, której prawdopodobieństwa realizacji nie jesteśmy w stanie określić. Obecnie korzystamy już z implantów i protez, a nasze możliwości technologiczne w tym zakresie zapewne ogromnie wzrosną w przyszłości. Ale czy kiedykolwiek uda się człowiekowi oderwać umysł od „biologicznego substratu”, a nie po prostu stworzyć niemal idealnego, komputerowego naśladowcę konkretnej osoby? Tego nie wiemy.

Przechodząc do kwestii bardziej przyziemnych. Ostatnio powstał nowy chatbot Elona Muska, który nazywa się Grok i ma być sarkastyczną odpowiedzią na chat GPT[1]. Ma odpowiadać na wszelkie kontrowersyjne pytania, wszelkie, na które chat GPT nie odpowie. Zastanawiam się, czy to nie jest o krok za daleko? Czy tworzenie sztucznych inteligencji, które mogą odpowiadać na tematy kontrowersyjne, nie jest w jakimś stopniu przekroczeniem granic moralności? 

P.P.: Wydaje mi się, że tak naprawdę nie pyta Pan w tym momencie o problematykę moralną powiązaną z rozwojem technologii SI. Rzecz dotyczy innego zagadnienia: wolności słowa. I mamy tutaj dwie podstawowe intuicje moralne, które mogą wchodzić w kolizję. Po pierwsze, intuicja bezpieczeństwa. Nie wszystkie treści uznaje się za korzystne i bezpieczne (np. propagandę czy przekonania rasistowskie). Wydaje się, że do tych treści, które są szczególnie szkodliwe, należałoby ograniczyć dostęp. Po drugie, intuicja wolności. Doświadczenie historyczne systemów totalitarnych, doświadczenie funkcjonowania w realiach demokratycznego państwa prawa, wolnego rynku oraz nieskrępowanego cenzurą dyskursu naukowego podpowiadają, że nikt nie ma monopolu na prawdę i słuszność, a najskuteczniejszym sposobem docierania do nich jest ścieranie się różnych opinii. I dlatego tzw. zachodni system społeczno-polityczny, przynajmniej w teorii, posiada bezpieczniki chroniące przed odbieraniem obywatelom różnych form wolności, w tym swobody posiadania i wyrażania własnej opinii. Jeśli chodzi o mnie, to w inspiracji klasyczną myślą liberalną uważam, że to nie ekstremistyczne opinie w ramach swobodnej wymiany idei są zagrożeniem, lecz jest nim przyznanie komuś władzy i możliwości decydowania o tym, do jakich treści ludzie mogą mieć dostęp. To prosta droga do nadużyć. Rozwiązaniem problemu treści szkodliwych czy ekstremistycznych nie jest cenzura, lecz edukacja obywatelska w duchu krytycznego myślenia. 

Brytyjski rząd przeznaczył ostatnio 2 miliony funtów na badanie nad AI, które mogłoby znaleźć zastosowanie w szkołach. Czy wprowadzenie takiej AI nie zagraża degradacji zawodu nauczyciela do poziomu osoby, która spełnia tylko proste czynności?

P.P.: Jeśli dalej mówimy o wąskiej SI, to jest to narzędzie i jak każde narzędzie samo w sobie jest neutralne, to my możemy je wykorzystać w dobrym albo złym celu. Samochodem mogę wozić swoje dzieci na zajęcia plastyczne, mogę też kogoś zabić pod wpływem alkoholu lub w akcie zemsty. Złe wykorzystanie jakiegokolwiek narzędzia w edukacji to takie, które godzi w wartości istotne w edukacji, takie jak budowanie motywacji wewnętrznej do uczenia się i zdobywania wiedzy, rozwój kompetencji komunikacyjnych i analitycznych, wychowanie obywatelskie, pobudzanie zdolności do koncentracji itd. Zapewne istnieje jakiś próg edukacyjnych ułatwień, po przekroczeniu którego trudno mówić o realizacji tych wartości. Ale SI i ogólnie, technologie informatyczne w edukacji to także szansa. Na przykład w nauce języków obcych bardzo ważny jest stały, regularny kontakt z językiem (nawet jeśli jest to tylko kilka minut dziennie). A ponieważ nie jest to proste, zwłaszcza w aspekcie motywacji, możemy wykorzystać algorytm, który będzie „zarządzał” moją nauką i w ten sposób okaże się pomocnym narzędziem. Jeśli więc, nieco stereotypowo, pytamy „SI w edukacji – szansa czy zagrożenie?”, to wydaje się, że prawidłowa odpowiedź brzmi tak: zarówno szansa, jak i zagrożenie.

Doktor Paweł Pijas – adiunkt w Zakładzie Historii Filozofii Starożytnej, Średniowiecznej i Nowożytnej Instytutu Filozofii Uniwersytetu Gdańskiego. Zainteresowania badawcze: etyka, filozofia emocji, metafilozofia.

Słownik
1. GPT. (inaczej Generative Pretrained Transformer) rodzaj modelu językowego opracowanego przez OpenAI. Model GPT jest oparty na architekturze Transformer, która…


Ten materiał powstał dzięki Waszemu wsparciu. Postaw mi kawę na buycoffee.to

Add a comment

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *