Nie, pokazałem Ci tylko jak zabawne jest wiązanie rozwiniętej rozumności z czuciem. Czucie nie czyni rozumnym, by być rozumnym nie trzeba czuć, trzeba myśleć.
Q, to wszystko sie zgadza, tylko, jak wspomnialem juz w watku o zagninionym fragmencie z Summy, Mistrz bardzo slusznie wskazuje, ze rozum, rozumnosc, inteligencja i swiadomosc to juz co innego. Mysle, ze Lilijnej (czy Lilijnie?) i mnie chodzi o to, kiedy maszyna zyskuje swiadomosc swojego istnienia i kiedy zaczyna sie czuc (kurcze, moze to niedobre slowo, powiedzmy, ze rozumie niewolniczosc swojej sytuacji) zniewolona, podlegla, zalezna od czlowieczego stworzyciela. Chociaz dlaczego czuc zle? HAL 9000 tez niby nie odczuwal emocji, a jednak bal sie wylaczenia i odejscia w niebyt. Rozumiesz? Nie chodzi o to, czy komputer bedzie mial humory i nastroje, ale wlasne zdanie, widzimisie, bedzie swiadomy sam siebie. Golem byl, takim tez okazal sie niejako HAL. Pytanie zatem jawi sie tak: Kiedy komputer przestaje byc tylko (chocby i inteligentnie) przetwarzajaca informacje maszyna (jak pecet, komputery sterujace jakimis pojazdami samoistnie itd oraz, jak mniemam, GOD), a kiedy zaczyna byc swiadomy tego, ze dzieje mu sie zle. Pecet nie bedzie sie burzyl, jak go kopne, pourywam przewody lub wylacze, bo nie ma wlasnego zdania i wizji. HAL 9000 tak. I tu sie zaczyna granica. Nie w materii uzytej do budowy czy zdolnosci do odczuwania bolu zeba, ale w rozumieniu wlasnego polozenia i swiadomosci istnienia. Nie wiem jak to jasniej wylozyc.