Polski > Lemosfera

Test Lema

(1/6) > >>

Hokopoko:
Już się tłumaczę. W lemowym FAQ znajduje się (jeszcze  ;D ) pytanie "jak stwierdzić, czy powstała już sztuczna inteligencja?". Jako że postawiona tam odpowiedź jest w zasadzie rozbudowaną wersją tego, co na rzeczony temat zaproponował Alan Turing i co powszechnie nazywane jest testem Turinga, to i pozwoliłem sobie nazwać obecny wątek "testem Lema" właśnie. (Wszyscy, którzy mają ochotę na testowanie samego Stanisława Lema, poczują się pewnie w tym miejscu zawiedzeni  ;))

Oto fragment z rzeczonego FAQ:

"Decydującym kryterium, które dowodziłoby powstania sztucznej inteligencji, byłaby rozmowa z maszyną. Mój nieczłowieczy partner miałby za zadanie opowiedzieć własnymi słowami jakąś przedstawioną mu anegdotę lub historię, zachowując przy tym cały sens mojej opowieści. Dla ostrożności należałoby tego rodzaju test powtórzyć kilkakrotnie."

I już mówię, co mi się w tym rozumowaniu nie widzi.
Otóż przedstawiony tu warunek, aby "nieczłowieczy partner" (którego dalej będziemy nazywać rozmaicie) opowiedział własnymi słowami zasłyszaną historię, jest (a przynajmniej na taki mi wygląda...) warunkiem koniecznym i wystarczającym. Znaczyłoby to, po pierwsze, że test taki, jeżeli tylko zostanie przez maszynę zdany, w zupełności wystarczy, by uznać, iż maszyna posiada świadomość - bo w zasadzie do świadomości sprowadza się pojęcie "sztucznej inteligencji".
Powodem, dla którego test Turinga, jako kryterium posiadania świadomości, nie jest już zbyt poważnie brany pod uwagę, stał się ciągły wzrost możliwości komputerów (i pisanych dla nich, coraz to bardziej zaawansowanych algorytmów). Przypomnę, że w teście tym egzaminator prowadzi dyskurs z "delikwentem", o którym nie wie, czy jest to człowiek, czy maszyna, a potem zgaduje, z kim miał do czynienia. Jeśli nie zgadnie, że rozmawiał z maszyną, to przyjmuje się, iż połączenie komputer-algorytm jest na tyle bystre, że nie pozostaje nic innego jak tylko uznać posiadanie przezeń inteligencji. Postęp inforatyki spowodował (Turing wymyślił test jeszcze w czasach lamp elektronowych), że współczesne superkomputery, jeśli tylko egzaminator zbytnio się nie czepia, potrafią przez ten test przebrnąć - co więcej, wypadają w tym nieraz lepiej od ludzi (których egzaminator również przepytuje w ciemno i czasami zdarza mu się zawyrokować, że dyskutował z maszyną  :D).

Test Turinga polega na rozmowie z maszyną na tematy, nazwijmy to, ogólno-bieżące. Postulat Lema zadanie maszyny niewątpliwie komplikuje, bo w tym przypadku komputerowi nie wystarczy już pamięć słów i wzorów zdań, znajomość gramatyki czy co tam jeszcze, co da się w miarę bezproblemowo przełożyć na język programowania. Opowiedzieć własnymi słowami zasłyszaną historię, to tyle co poddać ją pewnemu uogólnieniu, zrozumieć na meta-poziomie. Do tego potrzebna jest już zdolność abstrachowania.
Lem przedstawił swój pomysł już jakiś czas temu, i pamiętam, że kiedyś również na takie kryterium przystawałem. Dziś jednak , patrząc na to, co się wyprawia w informatyce, biorąc pod uwagę ciągły wzrost mocy obliczeniowej komputerów, wcale nie jestem pewien, czy problemu "opowiadania zasłyszanej historii" nie da się w dostateczny sposób zalgorytmizować. Zwłaszcza że taka maszyna nie musi być przecież budowana jako sztuczna inteligencja: budowniczym będzie przyświecał tylko jeden cel - zdać test Lema; cały arsenał programistyczny
zostanie skierowany w tym jednym kieruku. Może się więc okazać, że któregoś dnia powstanie maszyna opowiadająca własnymi słowami zasłyszane historie - i będzie to robić doskonale, tyle że nie będzie potrafiła nic innego...

Hokopoko:
Drugi mój zarzut jest natury niejako odwrotnej. Poprzednio rozwodziłem się nad warunkiem wystarczającym, teraz przejdę do warunku koniecznego - i o ile wcześniej moje rozumowanie zasadzało się na swojego rodzaju gdybaniu, to teraz wydaje mi się, że argumenty są znacznie mocniejsze.
Mianowicie do tego, by maszyna opowiedziała po swojemu zasłyszaną historię, potrzebna jest nie tylko świadomość - dodatkowo ta sztuczna inteligencja (a zakładam, że  w tym przypadku rzeczywiście uda się ją zbudować) będzie musiała operować całym arsenałem kulturowych symboli - oczywiście należących do kultury egzaminatora. Jeżeli jednak powstanie sztuczna świadomość, która z takich czy innych względów nie będzie mogła takimi symbolami operować, to tego testu nie przejdzie. Jest to o tyle istotne, że tego typu egzaminu na świadomość nie zda też człowiek, jeżeli będzie należał do kultury zdecydowanie różnej od kultury egzaminatora. Dowolna historia z naszego podwórka, opowiedziana członkowi jakiegoś dzikiego plemienia (pomijam przy tym kwestie translacyjne), będzie dla niego albo zupełnie niezrozumiała, albo też do tego, co zdoła pojąć, dorobi sobie własne - zupełnie obce nam z kolei - sensy. Testu więc nie zda, chociaż nikt nie odmówi mu posiadania świadomości.
Nie wydaje mi się, ażeby pierwsze sztuczne inteligecje były od razu w stanie dysponować naszymi sensami, mimo że pewnie, wnosząc z innych dotyczących ich danych, będzie można uznać, iż świadomość posiadają.
Logika i sensy tych świadomości mogą być różne od naszych, mogą się opierać na logice, racjonalności formalnej czy, co najbardziej prawdopodobne, będą jakimiś pochodnymi najrozmaitszych założeń podejmowanych przy ich budowie (tak jeśli chodzi o hardware, jak i software) - założeń, z istotności których początkujący budowniczowie nie będą sobie wogóle zdawać sprawy.

Podsumowując, nie wydaje mi się, by dało się sformułować jakikolwiek warunek, po spełnieniu którego będzie można jednoznacznie uznać, że oto zbudowaliśmy sztuczną inteligencję. To uznanie przyjdzie raczej na podstawie jakiegoś szerszego wglądu w istotę sprawy, spojrzeniu z meta-poziomu - dzięki opowiedzeniu sobie tej historii niekoniecznie naszymi słowami...

Oczywiście czekam na Wasze opinie! ;D

jarutek:
Zgadzam się. też mi się wydaję, że przebrnięcie bądź nie przez maszynę różnorakich testów niczego nie dowodzi. Za kryterium pojawienia się świadomości czy też inteligencji proponuję przyjąć zdarzenie, że maszyna wcale nie pytana sama zaczyna gadać i wtrącać swe nawet najgłupsze 3 grosze (co by może też tłumaczyło dlaczego maszyna jest rodzaju żeńskiego ;))
Pozdrawiam.

miazo:
Może problem z tego typu testami polega na tym, że czynią na początku takie założenie, że człowiek nie jest maszyną.

A-cis:
Opis testu na AI, a właściwie na jej wykrycie miałeś również na początku "Blade Runnera" kiedy to chodziło o zidentyfikowanie czy testujący rozmawia z człowiekiem, czy robotem.
Z tym że tam wykorzystywano również środki techniczne (badanie źrenicy). A w Twoim przypadku takie coś powinno być niedopuszczalne.
Natomiast zestaw pytań mółby być w tym przypadku pomocny do dyskusji.

Nawigacja

[0] Indeks wiadomości

[#] Następna strona

Idź do wersji pełnej