Terminus: Problem w tym że bardzo często spotyka się określenie "teoria chaosu" jako taki magiczny guziczek który jak nastąpi to już nie można o nic pytać. Innymi słowy sugeruje uprawnienie niedeterminizmu. Często bynajmniej nie wspominając o wpływach kwantowych.
Inaczej mówiąc: fakt że nieskończenie małe zmiany początkowe powodują nieskończenie duże zmiany końcowe nie jest dla mnie żadnym dowodem niedeterminizmu a tak się to czasem przedstawia.
Nie zrozumiałeś. Rzecz nie w tym, że większość AI będzie powiedzmy ulegać "wsadzonemu" jej programowaniu, rzecz w tym, po czym poznać która przestała i od którego momentu (stąd pytanie o "strukturę zarządzania", bo może przewidujesz jakieś mechanizmy weryfikacji).
Nie będzie to weryfikowalne. Statystycznie będzie dawało wyniki. (Trochę automatycznie zaczęliśmy rozważać społeczności AI bo takie modele przedstawiłem. Nad jednostkami też można by się zastanowić.)
Chyba że za "mechanizm weryfikacji" uznajesz to o czym piszę czyli np śmierć AI w wyniku zaprzestania działań.
Tedy matematycznie dowiedź
-primo: możliwości stworzenia AI,
-secundo:-jej nieomylności (względnej, na tle ludzi),
-tertio - że się nie zbuntuje (w sensie jakiegokolwiek "odmówienia współpracy") na odczuwalną dla luidzi skalę.
Znowu jakbyś nie przeczytał. Pytam DLACZEGO ja mam udowodnić że się nie zbuntuje a jak nie udowodnię to z założenia wiadomo że się zbuntuje?
Odpowiadam: nie jestem w stanie udowodnić pierwszego. Jestem w stanie stwierdzić że na pewno będzie omylna bo na tym polega inteligencja. Nie jestem w stanie udowodnić trzeciego. Dodam tylko że jestem pewien, że gdy AI będzie działało w przemyśle, będzie udowadnialna naukowo niemożność zbuntowania się jej.
Wtedy uwierzę.
Dwie kwestie poboczne:
1. cały czas nie wiem po co postulowanym przez Ciebie maszynom świadomość,
2. cały czas nie wiem jaki podasz sposób weryfikowania przez ludzi wyników podawanych im przez - przewyższające ludzi umysłowo - AI.
Ja też nie wiem po co postulowanym maszynom świadomość. Tak samo jak nie wiem "po co" jest ona nam.
Używanie AI w proponowany sposób i weryfikowanie jej wyników mija się z celem. Chodzi o to by dostawać coś czego sami nie jesteśmy w stanie "wymyślić" a zatem i zrozumieć.
Jeszcze tak, trochę głupio że w tym momencie ale to tylko dlatego że teraz mam powiedzmy wenę, wyjaśnię o co mi chodziło w tytule tematu i w ogóle w temacie. Zapewne sam już w pierwszym poście się pogubiłem więc tym bardziej
Chodziło mi o to, że tematyka AI owszem jest przerażająca, ale nie dla ludzkości, tak jak się postuluje w literaturze i dosłownie wszędzie, ale dla samej AI właśnie. I że głównym naszym problemem w rozwoju tej dziedziny nie są kwestie techniczne a kwestie moralne.