Autor Wątek: Test Lema  (Przeczytany 18662 razy)

Hokopoko

  • Gość
Test Lema
« dnia: Marca 10, 2006, 06:43:55 pm »
Już się tłumaczę. W lemowym FAQ znajduje się (jeszcze  ;D ) pytanie "jak stwierdzić, czy powstała już sztuczna inteligencja?". Jako że postawiona tam odpowiedź jest w zasadzie rozbudowaną wersją tego, co na rzeczony temat zaproponował Alan Turing i co powszechnie nazywane jest testem Turinga, to i pozwoliłem sobie nazwać obecny wątek "testem Lema" właśnie. (Wszyscy, którzy mają ochotę na testowanie samego Stanisława Lema, poczują się pewnie w tym miejscu zawiedzeni  ;))

Oto fragment z rzeczonego FAQ:

"Decydującym kryterium, które dowodziłoby powstania sztucznej inteligencji, byłaby rozmowa z maszyną. Mój nieczłowieczy partner miałby za zadanie opowiedzieć własnymi słowami jakąś przedstawioną mu anegdotę lub historię, zachowując przy tym cały sens mojej opowieści. Dla ostrożności należałoby tego rodzaju test powtórzyć kilkakrotnie."

I już mówię, co mi się w tym rozumowaniu nie widzi.
Otóż przedstawiony tu warunek, aby "nieczłowieczy partner" (którego dalej będziemy nazywać rozmaicie) opowiedział własnymi słowami zasłyszaną historię, jest (a przynajmniej na taki mi wygląda...) warunkiem koniecznym i wystarczającym. Znaczyłoby to, po pierwsze, że test taki, jeżeli tylko zostanie przez maszynę zdany, w zupełności wystarczy, by uznać, iż maszyna posiada świadomość - bo w zasadzie do świadomości sprowadza się pojęcie "sztucznej inteligencji".
Powodem, dla którego test Turinga, jako kryterium posiadania świadomości, nie jest już zbyt poważnie brany pod uwagę, stał się ciągły wzrost możliwości komputerów (i pisanych dla nich, coraz to bardziej zaawansowanych algorytmów). Przypomnę, że w teście tym egzaminator prowadzi dyskurs z "delikwentem", o którym nie wie, czy jest to człowiek, czy maszyna, a potem zgaduje, z kim miał do czynienia. Jeśli nie zgadnie, że rozmawiał z maszyną, to przyjmuje się, iż połączenie komputer-algorytm jest na tyle bystre, że nie pozostaje nic innego jak tylko uznać posiadanie przezeń inteligencji. Postęp inforatyki spowodował (Turing wymyślił test jeszcze w czasach lamp elektronowych), że współczesne superkomputery, jeśli tylko egzaminator zbytnio się nie czepia, potrafią przez ten test przebrnąć - co więcej, wypadają w tym nieraz lepiej od ludzi (których egzaminator również przepytuje w ciemno i czasami zdarza mu się zawyrokować, że dyskutował z maszyną  :D).

Test Turinga polega na rozmowie z maszyną na tematy, nazwijmy to, ogólno-bieżące. Postulat Lema zadanie maszyny niewątpliwie komplikuje, bo w tym przypadku komputerowi nie wystarczy już pamięć słów i wzorów zdań, znajomość gramatyki czy co tam jeszcze, co da się w miarę bezproblemowo przełożyć na język programowania. Opowiedzieć własnymi słowami zasłyszaną historię, to tyle co poddać ją pewnemu uogólnieniu, zrozumieć na meta-poziomie. Do tego potrzebna jest już zdolność abstrachowania.
Lem przedstawił swój pomysł już jakiś czas temu, i pamiętam, że kiedyś również na takie kryterium przystawałem. Dziś jednak , patrząc na to, co się wyprawia w informatyce, biorąc pod uwagę ciągły wzrost mocy obliczeniowej komputerów, wcale nie jestem pewien, czy problemu "opowiadania zasłyszanej historii" nie da się w dostateczny sposób zalgorytmizować. Zwłaszcza że taka maszyna nie musi być przecież budowana jako sztuczna inteligencja: budowniczym będzie przyświecał tylko jeden cel - zdać test Lema; cały arsenał programistyczny
zostanie skierowany w tym jednym kieruku. Może się więc okazać, że któregoś dnia powstanie maszyna opowiadająca własnymi słowami zasłyszane historie - i będzie to robić doskonale, tyle że nie będzie potrafiła nic innego...

Hokopoko

  • Gość
Re: Test Lema
« Odpowiedź #1 dnia: Marca 10, 2006, 06:46:16 pm »
Drugi mój zarzut jest natury niejako odwrotnej. Poprzednio rozwodziłem się nad warunkiem wystarczającym, teraz przejdę do warunku koniecznego - i o ile wcześniej moje rozumowanie zasadzało się na swojego rodzaju gdybaniu, to teraz wydaje mi się, że argumenty są znacznie mocniejsze.
Mianowicie do tego, by maszyna opowiedziała po swojemu zasłyszaną historię, potrzebna jest nie tylko świadomość - dodatkowo ta sztuczna inteligencja (a zakładam, że  w tym przypadku rzeczywiście uda się ją zbudować) będzie musiała operować całym arsenałem kulturowych symboli - oczywiście należących do kultury egzaminatora. Jeżeli jednak powstanie sztuczna świadomość, która z takich czy innych względów nie będzie mogła takimi symbolami operować, to tego testu nie przejdzie. Jest to o tyle istotne, że tego typu egzaminu na świadomość nie zda też człowiek, jeżeli będzie należał do kultury zdecydowanie różnej od kultury egzaminatora. Dowolna historia z naszego podwórka, opowiedziana członkowi jakiegoś dzikiego plemienia (pomijam przy tym kwestie translacyjne), będzie dla niego albo zupełnie niezrozumiała, albo też do tego, co zdoła pojąć, dorobi sobie własne - zupełnie obce nam z kolei - sensy. Testu więc nie zda, chociaż nikt nie odmówi mu posiadania świadomości.
Nie wydaje mi się, ażeby pierwsze sztuczne inteligecje były od razu w stanie dysponować naszymi sensami, mimo że pewnie, wnosząc z innych dotyczących ich danych, będzie można uznać, iż świadomość posiadają.
Logika i sensy tych świadomości mogą być różne od naszych, mogą się opierać na logice, racjonalności formalnej czy, co najbardziej prawdopodobne, będą jakimiś pochodnymi najrozmaitszych założeń podejmowanych przy ich budowie (tak jeśli chodzi o hardware, jak i software) - założeń, z istotności których początkujący budowniczowie nie będą sobie wogóle zdawać sprawy.

Podsumowując, nie wydaje mi się, by dało się sformułować jakikolwiek warunek, po spełnieniu którego będzie można jednoznacznie uznać, że oto zbudowaliśmy sztuczną inteligencję. To uznanie przyjdzie raczej na podstawie jakiegoś szerszego wglądu w istotę sprawy, spojrzeniu z meta-poziomu - dzięki opowiedzeniu sobie tej historii niekoniecznie naszymi słowami...

Oczywiście czekam na Wasze opinie! ;D

jarutek

  • Gość
Re: Test Lema
« Odpowiedź #2 dnia: Marca 11, 2006, 11:18:52 am »
Zgadzam się. też mi się wydaję, że przebrnięcie bądź nie przez maszynę różnorakich testów niczego nie dowodzi. Za kryterium pojawienia się świadomości czy też inteligencji proponuję przyjąć zdarzenie, że maszyna wcale nie pytana sama zaczyna gadać i wtrącać swe nawet najgłupsze 3 grosze (co by może też tłumaczyło dlaczego maszyna jest rodzaju żeńskiego ;))
Pozdrawiam.

miazo

  • Gość
Re: Test Lema
« Odpowiedź #3 dnia: Marca 11, 2006, 11:28:46 am »
Może problem z tego typu testami polega na tym, że czynią na początku takie założenie, że człowiek nie jest maszyną.

A-cis

  • Gość
Re: Test Lema
« Odpowiedź #4 dnia: Marca 11, 2006, 12:28:55 pm »
Opis testu na AI, a właściwie na jej wykrycie miałeś również na początku "Blade Runnera" kiedy to chodziło o zidentyfikowanie czy testujący rozmawia z człowiekiem, czy robotem.
Z tym że tam wykorzystywano również środki techniczne (badanie źrenicy). A w Twoim przypadku takie coś powinno być niedopuszczalne.
Natomiast zestaw pytań mółby być w tym przypadku pomocny do dyskusji.

Terminus

  • Gość
Re: Test Lema
« Odpowiedź #5 dnia: Marca 11, 2006, 12:35:01 pm »
Cytuj
Może problem z tego typu testami polega na tym, że czynią na początku takie założenie, że człowiek nie jest maszyną.



Buehehe, supersweet ::)

Deckert

  • Gość
Re: Test Lema
« Odpowiedź #6 dnia: Marca 11, 2006, 05:04:07 pm »
Myślę, że sztuczna inteligencja czyli AI może w pewnym momencie rozwoju techniki stać się po prostu określeniem super wydajnej maszyny świetnie naśladującej naszą - ludzką - inteligencję. Już tłumaczę o co mi chodzi. Hokopoko słusznie zauważył, że moce obliczeniowe komputerów rosną w zastraszającym tempie. Jestem pewien, że szybkość działania zaawansowanego chatbota (zaawansowanego czyli takiego, który poprawnie składniowo odpowiada na pytania z dziedziny np: muzyki) będzie całkowicie zadowalająca na przeciętnym Pececie domowego użytkownika.

Wyobraźmy sobie, że równocześnie developerzy budują moduły tego chatbota nakierowane na ściśle określone dziedziny życia ludzkiego. Mamy więc moduł na temat muzyki, filozofii, filmu, literatury, geografii świata, biologii, genetyki itd.. itp... W takiej sytuacji test Turinga zostanie zdany na piątkę z plusem. Człowiek będzie mógł zadać takiemu komputerowi praktycznie dowolne pytanie i uzyska odpowiedź wygłoszoną, np: piękną angielszczyzną.

Oczywiście komputer ten nadal nie myśli, lecz wykonuje z góry zaplanowane algorytmy. Dzięki mocy obliczeniowej wykonuje je jednak wystarczająco szybko. Dzięki sprytnemu algorytmowi będzie wysławiać się jak człowiek. Co więcej dzięki swoim modułom będzie miał spore zasoby wiedzy z różnych dziedzin.
Dodatkowo dzięki łączności z Internetem, będzie mógł wciąż te zasoby powiększać, poprzez np: updaty bazy danych. Oczywiście będziemy tu mieli także wbudowane systemy eksperckie z wszystkich dziedzin, umożliwiąjące rozwiązywanie podstawowych problemów. Taka baza wyjściowa daje nam nadal głupi komputer, którego nie można w sensie dosłownym nazwać inteligentnym, ale dla większość ludzi będzie on już całkiem fajną zabawką, z którą można pogadać na wiele tematów i trochę się od niej dowiedzieć. Sami musicie przyznać, że taka maszynka zda test Turinga bez problemu. Komputer, dzięki odpowiedniemu programowi komunikacyjnemu, mówi składnie jak człowiek. Więcej! Może odpowiadać w dowolnym języku!

Niestety nadal jest głupi, tzn. nieświadomy swojego istnienia.

Programiści rozpoczynają kolejny etap rozwoju tej maszynki. Wprowadzają jej moduł symulujący osobowość czyli uczucia. Jest to system wagowy, oczywiście odpowiednio rozbudowany. Teraz wyobraźmy sobie, że da się to wszystko już odpowiednio zminiaturyzować i wstawić w obwody jakiegoś humanoidalnego robocika. Może to być ten zabawny Asimo firmy Honda. Dalej wyobraźmy sobie, że owego Asimo dostaje na urodziny jakiś dzieciak. Ależ wspaniały prezent. Toż to elektroniczny wychowawca. To chodząca encyklopedia, nauczyciel dowolnego języka obcego. Mogą się od niego uczyć zarówno dzieci jak i dorośli. Dzięki wbudowanemu systemowi wagowemu, który steruje jego emocjami oraz uczuciami może on bardziej lub mniej lubić określonych domowników. No i tu przychodzą nam z pomoca Prawa Robotyki Asimova. Co się bowiem stanie jeśli takiego robota zbytnio zdenerwujesz? Czy może zrobić czy krzywdę? To będzie zależało od tego jaki będzie mieć algorytm działania. Może być też tak, że po wyczerpaniu się przysłowiowej "cierpliwości" takiego robota wyłączy się on, albo będzie resetować sobie ten system wagowy. Gorzej, jeśli ktoś kiedyś wpadnie na pomysł zbudowania jakiegoś wirusa, który zakłóci działanie tego systemu.
I co z tego wynika? Czy ten robot posiada sztuczną inteligencję? Znów możemy powiedzieć, że nie. Nadal jest tylko puszką z obwodami elektronicznymi. Naśladuje jednak relacje międzyludzkie tak dobrze, że dla wielu ludzi staje się przyjacielem - domownikiem, który ich lubi i który służą im radą. A więc sporo osób będzie traktować to urządzenie jako inteligentne.

c.d.n.
« Ostatnia zmiana: Marca 11, 2006, 05:07:13 pm wysłana przez Deckert »

Deckert

  • Gość
Re: Test Lema
« Odpowiedź #7 dnia: Marca 11, 2006, 05:09:09 pm »
c.d.

Wyobraźmy sobie dalej, że konstruktorzy w końcu osiągnęli mistrzostwo w budowaniu humanoidalnych robotów. Wyglądają bardzo podobnie do ludzi. Są silniejsi, zdecydowanie bardziej precyzyjni, są po prostu doskonalsi fizycznie. W ich elektronicznych mózgach działają kolejne, wciąż poprawiane wersje oprogramowania, o którym wyżej pisałem. Czym jest ten dziwny twór? Czy to sztuczna inteligencja? Twórca oprogramowania powiedziałby, że nie. Wie doskonale jak działa jego mózg, potrafi przewidzieć co zrobi. Ale użytkownik końcowy już tego nie potrafi wytłumaczyć. Dla niego jest to wspaniały pomocnik w codziennym życiu. Dzięki niemu czuje się bezpiecznie i dobrze. Ma kogoś na kim może polegać. Może mu się także zwierzać. Czemuż by nie? Co to za problem dla konstruktorów zbudować odpowiedni moduł zajmujący się psychologią.

I dalej załóżmy, że konstruktorzy wprowadzili kolejną modyfikację w oprogramowaniu. Umożliwili nowej generacji samomodyfikowanie się pewnych modułów. Mogą to być np: moduły emocji i uczuć. W trakcie życia robota jego system wagowy odpowiedzielny za jego osobowość rozbudowuje się pod wpływem rozmów z ludźmi i przeżyć. Robot staje się naprawdę ludzki. Lecz nadal dla twórcy jest głupią puszką na elektrony lub fotony. Ale mamy tu poraz pierwszy pewną znaczącą różnicę. Robot nie jest już w pełni przewidywalny. W końcu potrafi rozbudowywać pewne części swoich algorytmów - dokonywać pewnych zmian. Jeśli robot coś zrobi, np: umożliwi swojemu Panu wykonanie eutanazji to nie będzie już jasne dlaczego tak właśnie postąpił. Nie wiadomo co dokładnie czuł do swojego właściciela. Zauważcie, że używam tutaj po raz pierwszy sformułowania "co czuje robot?". Aby stwierdzić dlaczego tak a nie inaczej się zachował twórcy musieliby podłączyć się do jego pamięci wspomnień, modułu symulującego uczucia itd. itp..  a następnie dokonać pewnej "analizy jego osobowości".
No i czyż nie byłaby to już owa AI, której poszukujemy? Dla twórców nie, ale dla ludzi tak. Dążyłem w tym poście to ukazania pewnego możliwego kierunku rozwoju oprogramowania, które jedynie świetnie symuluje ludzką inteligencję i zachowania. Tak doskonale naśladuje nasze zachowanie, że zasługuje na miano sztucznej inteligencji ;).

Proszę o Wasz komentarz, z czym się zgadzacie a z czym nie.

CU
Deck

miazo

  • Gość
Re: Test Lema
« Odpowiedź #8 dnia: Marca 11, 2006, 06:46:16 pm »
Dlaczego nie użyłeś zamiast "robot" słowa "dziecko", zamiast "konstruktorzy" słowa "rodzice", zamiast "developerzy budują moduły" słów "nauczyciele przekazują wiedzę z dziedzin", "dzięki łączności z Internetem" słów "poprzez zmysły", etc.?

Dla mnie to jest problem zdefiniowania pojęcia "człowieka", wskazania gdzie zaczyna się i kończy "sztuczność" i tym podobnych. Czy w ogóle da się to zrobić w sposób taki, żeby w prosty sposób móc zawsze tj. też w przyszłości, gdy konstruowane maszyny będą zbliżać się do tej opisanej przez Deckarda, dokonać odpowiedniego rozróżnienia? Wątpię.

I poza tym, zakładając, że ktoś-kiedyś będzie w stanie zbudować takie AI - po coż miałby to robić?

pirxowa

  • Gość
Re: Test Lema
« Odpowiedź #9 dnia: Marca 11, 2006, 09:18:53 pm »
Cytuj
Za kryterium pojawienia się świadomości czy też inteligencji proponuję przyjąć zdarzenie, że maszyna wcale nie pytana sama zaczyna gadać i wtrącać swe nawet najgłupsze 3 grosze (co by może też tłumaczyło dlaczego maszyna jest rodzaju żeńskiego ;))


Drodzy koledzy! Najpierw warto zdefiniować słowa "inteligencja" i "świadomość", z kolei porównać własne definicje z definicjami Lema, a dopiero potem dyskutować nad jego tezami.

Drogi kolego Jarutek! Jestem zdania, że twój żart na temat rodzaju żeńskiego jest trochę niestosowny. Jednakże sam strzeliłeś do własnej bramki. Jeśli uważasz, że rodzaj męski w odróżnieniu od żeńskiego nie odzywa się nie pytany i nie wtrąca nawet najgłupszych 3 groszy, to wobec tego nie spełniałby on twojego kryterium inteligencji.
« Ostatnia zmiana: Marca 11, 2006, 09:19:11 pm wysłana przez pirxowa »

NEXUS6

  • Gość
Re: Test Lema
« Odpowiedź #10 dnia: Marca 12, 2006, 05:36:50 am »
Pirxowa, widze cie wsciekla przed monitorem ;D
Wyglada na to, ze calosc wnioskow sprowadza sie do udawania roznych rzeczy, lub nie udawania przez maszyne/program i rozroznienia tych dwoch dzialan przez czlowieka... Jakies to takie...pokazujace, ze na dobra sprawe nic nie wiadomo, nawet na poziomie definicji, np. "inteligencja", "swiadomosc", czyli podstawowych w tym temacie  :-/.

Deckert

  • Gość
Re: Test Lema
« Odpowiedź #11 dnia: Marca 12, 2006, 08:54:56 am »
Ad NEXUS6

Zgadza się. Właśnie jedną z możliwych konsekwencji przykładu, który podałem jest brak ostatecznej wiedzy na temat definicji inteligencji oraz świadomości. W przykładu tego wynika bowiem, że hipotetycznie istnieje taka możliwość, że zbudujemy maszynę, która imituje nas samych (nasze myślenie) w tak zbliżonym stopniu, że naprawdę trudno będzie stwierdzić, że ta maszyna nie jest inteligentna. Będziemy jednak wiedzieć, że wykonuje ona tylko i wyłącznie niezwykle rozbudowane algorytmy.

I tu pojawia się drugie dno tej opowiastki. Idzie to w kierunku tego o czym pisał miazo. Zbudowanie takiej maszyny, cyborga czy czegokolwiek może dowodzić, że my również działamy według pewnych algorytmów. Maszyna kopiuje je w tak doskonały sposób, a pod wieloma względami nas przerasta, że uważamy ją za sztuczną inteligencję. Nasz odpowiednik w świecie fotonów i elektronów.

Ad pirxowa

Jaka ty jesteś drażliwa.... ::) przecież to był tylko żart, ze strony jarutka.

OK. Ale do rzeczy.

Oto definicja świadomości zaciągnięta z wikipedii:

Cytuj
Świadomość to stan, w którym jednostka zdaje sobie sprawę ze zjawisk wewnętrznych, takich jak własne procesy myślowe, oraz zjawisk zachodzących w środowisku zewnętrznym i jest w stanie reagować na nie (somatycznie i/lub autonomicznie). Zwykły stan czuwania.


Jeśli chodzi o definicję inteligencji to jest gorzej (tzn. bardziej obszernie). Ale spróbuj może podać swoją definicję.

Co do świadomości w podanym przeze mnie przykładzie. Jest ona skopiowana z człowieka. Komputer świetnie ją symuluje. W odpowiedzi na pytanie "Czy jesteś świadomy swojego istnienia" odpowie "Oczywiście! Myślę, więc jestem - tak samo jak ty". Oczywiście trochę teraz trywializuje, ale chyba rozumiecie o co mi chodzi.

CU
Deck

pirxowa

  • Gość
Re: Test Lema
« Odpowiedź #12 dnia: Marca 12, 2006, 04:23:16 pm »
Niechże Jarutek sam się broni, jeśli chce.

Ani nie jestem wściekła, ani drażliwa.

Doskonale rozumiem, że chodzi o żart.
Istnieje jednak kategoria żartów niestosownych.

Zróbmy doświadczenie myślowe:

1.
Cytuj
maszyna wcale nie pytana sama zaczyna gadać i wtrącać swe nawet najgłupsze 3 grosze (co by może też tłumaczyło dlaczego maszyna jest rasy czarnej ;) )


2.
Cytuj
maszyna wcale nie pytana sama zaczyna gadać i wtrącać swe nawet najgłupsze 3 grosze (co by może też tłumaczyło dlaczego maszyna jest żydowska ;) )


3.
Cytuj
maszyna wcale nie pytana sama zaczyna gadać i wtrącać swe nawet najgłupsze 3 grosze (co by może też tłumaczyło dlaczego maszyna jest homoseksualna ;) )


Jakie nasuwają się wam wrażenia? Śmieszne? Nieśmieszne? Absurdalne? Bez sensu? Dlaczego? - Pozostawiam do przemyślenia.
« Ostatnia zmiana: Marca 12, 2006, 04:24:13 pm wysłana przez pirxowa »

Socrates

  • Gość
Re: Test Lema
« Odpowiedź #13 dnia: Marca 12, 2006, 07:08:38 pm »
Z mojego uniwesytetu - po angiesku, ale na temat i bardzo ciekawe.  Jest tam i Turing test, i Chatbots, i o komputerowych szachach, etc.


http://www.cs.yorku.ca/~peter/PHIL3750/topics.html

Socrates

Falcor

  • Gość
Re: Test Lema
« Odpowiedź #14 dnia: Marca 13, 2006, 12:27:24 am »
Czarna maszyna musiałby rapować, żydowska próbować coś sprzedać, a homoseksualna mieć kolor różowy. Nie można tak sobie dopasowywać definicji do wszystkiego. Tutaj muszą być spełnione odpowiednie kryteria ;D

Co do samego żartu - przyznaję uśmiechnąłem się gdy go przeczytałem :P chociaż może faktycznie był to dowcip niezbyt wysokich lotów jak na ów forum ale co było... minęło :) itd.