Jak tak Was (a zwłaszcza dzi) czytam, to wychodzi na to, że zarówno rozumienie obrazu (jak i - na co sam wpadłem - ew. skopiowanie umysłu do machiny) będzie wymagać wychwytywania istotnych prawidłowości, i tworzenia na ich podstawie uogólnień, czyli Penrose ma rację, że SI będzie na ideach platońskich "chodzić", i że sam umysł jest takąż ideą.
(Przy czym, by była jasność, w sporze o uniwersalia nadal stoję na twardym gruncie konceptualizmu.)
Albo raczej tak jak "działamy" my, czyli "nie wiadomo jak ale działa" (tym "nie wiadomo jak" zajmuje się jak wiemy bardzo "rozmyta" nauka zwana psychologią). Bo tak mniej więcej jest z sieciami neuronowymi (a chyba można uznać że co najmniej tym jest mózg). Zresztą, sieci neuronowe wykorzystuje się właśnie tam gdzie zna się pożądane reakcje na wejścia a nie zna algorytmu.
To czym jest ten robot czy to rozpoznawanie obrazu o którym piszę to tylko próby symulacji naszych zachowań prostymi algorytmami. Modele. Tak "naprawdę" my tak nie działamy.
A z samym uczeniem SI wiąże się pytanie jaka powinna być proporcja pomiędzy wiedzą "wrodzoną" (tj. zaprogramowaną), a wiedzą nabytą. Czyli ile wiedzy powinniśmy ładować u SI na wejściu, jak w komputer, a ile dać jej szansę samodzielnie nabyć. Czy powinna być naładowana wiedzą jak biblioteka, ale zdolna się uczyć dalej, czy przeciwnie, uczyć się wszystkiego od "zera" jak dzieci. Ech, bardzo jestem ciekaw jak na to pytanie odpowiedzą dalsze doświadczenia.
Zależnie od potrzeb. Fajne natomiast jest to, że jeśli daną sieć da się jakoś zapisać (a jeśli będzie się "ogarniało" proces jej budowy to na pewno będzie się umiało ją zapisać) to będzie można tych "ludzi" kopiować. To znaczy można robić tak że częścią "procesu produkcji" jest uczenie danego AI, powiedzmy jak człowieka, a potem można już rozpocząć produkcję masową (co zresztą będzie odpowiednikiem obecnie istniejących procesów to znaczy produkcji prototypu i produkcji masowej)
W najlepszym wypadku, jeśli będziemy "rozumieli" (czyli nie sieć neuronowa) działanie tego "mózgu" AI to będzie można kopiować też fragmenty. W każdym natomiast przypadku będzie można dokonywać zapisów w trakcie procesu uczenia, np co miesiąc, robić kopię, w przypadku niechcianych wyników niszczenia danego osobnika i uczenia w inny sposób "poprzedniej wersji" itd. W ten sposób można uzyskać dowolny poziom nauczenia dowolnej rzeczy w dowolnej ilości.
Teoria jest taka, że w momencie gdy będziemy potrafili zbudować jakoś sensownie działającą (może być software'ową np) sieć neuronową o złożoności mózgu i podłączymy do niej zmysły takie jak ludzkie to powinien "wyjść" człowiek
i wszystko co napisałem powyżej będzie prawdziwe. A praktyka pokaże jak jest
Ktoś tam gdzieś chyba jakieś badania w kierunku budowy sztucznego mózgu prowadzi, niestety nie znam tematu. (Na pierwszy rzut oka
www.theartificialbrain.com to raczej nie to.)
Co do złożoności mózgu to zawiera on średnio ok 100 miliardów neuronów podczas gdy dla porównania liczba tranzystorów w obecnych procesorach to rząd setek milionów (raczej dwóch setek niż dziewięciu
). No i tranzystor to rzecz sporo mniej złożona niż neuron i połączenia neuronowe, chodzi mi tylko o oddanie skali. Jeśli
Prawo Moora zostałoby zachowane to procesory dojdą do tej liczby tranzystorów za ok. 36 lat. Tak więc droga raczej długa
Podejrzewam zresztą, zgodnie z tym co napisałem na początku posta, że sporo wcześniej powstaną bardzo podobne do ludzi "algorytmiczne symulacje", będące rozwojem takiego robota jak omawiany, niż sztuczny mózg. Chociaż kto wie
edit:
Ten drugi robocik też ciekawy.
jeszcze jeden edit, taki osobisty bardziej
i podparty wypowiedzią:
Swietne rzeczy opowiadacie, bardzo ciekawe i zupelnie nie mialem pojecia.
Wg mnie zagadnienia sztucznej inteligencji (albo szerzej sztucznego życia) to najciekawsze co jest w całym świecie s-f (no przynajmniej tego "technicznego", bo autoewolucja jest podobnie ciekawa na przykład). Bez porównania ciekawsze niż np loty w kosmos. Dziwi mnie dlaczego temat jest tak mało poruszany tu na forum.