Już się tłumaczę. W lemowym FAQ znajduje się (jeszcze
) pytanie "jak stwierdzić, czy powstała już sztuczna inteligencja?". Jako że postawiona tam odpowiedź jest w zasadzie rozbudowaną wersją tego, co na rzeczony temat zaproponował Alan Turing i co powszechnie nazywane jest testem Turinga, to i pozwoliłem sobie nazwać obecny wątek "testem Lema" właśnie. (Wszyscy, którzy mają ochotę na testowanie samego Stanisława Lema, poczują się pewnie w tym miejscu zawiedzeni
)
Oto fragment z rzeczonego FAQ:
"Decydującym kryterium, które dowodziłoby powstania sztucznej inteligencji, byłaby rozmowa z maszyną. Mój nieczłowieczy partner miałby za zadanie opowiedzieć własnymi słowami jakąś przedstawioną mu anegdotę lub historię, zachowując przy tym cały sens mojej opowieści. Dla ostrożności należałoby tego rodzaju test powtórzyć kilkakrotnie."
I już mówię, co mi się w tym rozumowaniu nie widzi.
Otóż przedstawiony tu warunek, aby "nieczłowieczy partner" (którego dalej będziemy nazywać rozmaicie) opowiedział własnymi słowami zasłyszaną historię, jest (a przynajmniej na taki mi wygląda...) warunkiem koniecznym i wystarczającym. Znaczyłoby to, po pierwsze, że test taki, jeżeli tylko zostanie przez maszynę zdany, w zupełności wystarczy, by uznać, iż maszyna posiada świadomość - bo w zasadzie do świadomości sprowadza się pojęcie "sztucznej inteligencji".
Powodem, dla którego test Turinga, jako kryterium posiadania świadomości, nie jest już zbyt poważnie brany pod uwagę, stał się ciągły wzrost możliwości komputerów (i pisanych dla nich, coraz to bardziej zaawansowanych algorytmów). Przypomnę, że w teście tym egzaminator prowadzi dyskurs z "delikwentem", o którym nie wie, czy jest to człowiek, czy maszyna, a potem zgaduje, z kim miał do czynienia. Jeśli nie zgadnie, że rozmawiał z maszyną, to przyjmuje się, iż połączenie komputer-algorytm jest na tyle bystre, że nie pozostaje nic innego jak tylko uznać posiadanie przezeń inteligencji. Postęp inforatyki spowodował (Turing wymyślił test jeszcze w czasach lamp elektronowych), że współczesne superkomputery, jeśli tylko egzaminator zbytnio się nie czepia, potrafią przez ten test przebrnąć - co więcej, wypadają w tym nieraz lepiej od ludzi (których egzaminator również przepytuje w ciemno i czasami zdarza mu się zawyrokować, że dyskutował z maszyną
).
Test Turinga polega na rozmowie z maszyną na tematy, nazwijmy to, ogólno-bieżące. Postulat Lema zadanie maszyny niewątpliwie komplikuje, bo w tym przypadku komputerowi nie wystarczy już pamięć słów i wzorów zdań, znajomość gramatyki czy co tam jeszcze, co da się w miarę bezproblemowo przełożyć na język programowania. Opowiedzieć własnymi słowami zasłyszaną historię, to tyle co poddać ją pewnemu uogólnieniu, zrozumieć na meta-poziomie. Do tego potrzebna jest już zdolność abstrachowania.
Lem przedstawił swój pomysł już jakiś czas temu, i pamiętam, że kiedyś również na takie kryterium przystawałem. Dziś jednak , patrząc na to, co się wyprawia w informatyce, biorąc pod uwagę ciągły wzrost mocy obliczeniowej komputerów, wcale nie jestem pewien, czy problemu "opowiadania zasłyszanej historii" nie da się w dostateczny sposób zalgorytmizować. Zwłaszcza że taka maszyna nie musi być przecież budowana jako sztuczna inteligencja: budowniczym będzie przyświecał tylko jeden cel - zdać test Lema; cały arsenał programistyczny
zostanie skierowany w tym jednym kieruku. Może się więc okazać, że któregoś dnia powstanie maszyna opowiadająca własnymi słowami zasłyszane historie - i będzie to robić doskonale, tyle że nie będzie potrafiła nic innego...