zadałem sobie pytanie: czy w dyskusji o Summie mogą brać udział tylko jej entuzjaści (i entuzjastki)?
Do dojrzałym namyśle [] uznałem, że odpowiedź brzmi: nie.
Jasne, że nie. Wątek o "Fiasku" np. założyła i jedne z ciekawszych myśli w nim sformułowała ANIEL-a, która zdaje się tej powieści - a przynajmniej paru kluczowych rozwiązań z niej - nie trawić.
Lem był oczywiście ograniczony w rozważaniach o ewolucji ustrojów, ponieważ kiedy pisał, obowiązywał dogmat o sui generis …”Końcu historii” – już nic lepszego niż realny socjalizm nie mogło się pojawić. Może nawet nie tyle autor był ograniczony, co temat był praktycznie nie do ruszenia.
„Summa Technologiae cum Sociologiae” nie była możliwa.
Ale to jest, bez winy Lema, zasadnicza wada książki.
Z drugiej strony... Czy sądzisz, że konkretne prognozy nt. przyszłego kształtu społeczeństwa są możliwe? Zwł., że większości cudów z dalszych rozdziałów "Summy..." - jeśli ktokolwiek, kiedykolwiek, dokona, to nie będą to raczej ludzie. Proponujesz zabawienie się w socjologię rozumnych maszyn o boskawych potencjach? (No, niby Benford próbował...)
**
“
It is tough to make predictions, especially about future” – to dotyczy wszystkich, także Lema.
„Czy sądzisz, że konkretne prognozy nt. przyszłego kształtu społeczeństwa są możliwe?”
Prognozy są (oczywiście) zawsze możliwe, w dodatku im krótszy okres, tym są łatwiejsze (
co nie znaczy łatwe, ale powiedzmy, krótkoterminowe są ultra-trudne, a dłuższe hiper-trudne [albo odwrotnie, w zależności od przyjętej nomenklatury.])
„
Zaletą” nieprognozowania w horyzoncie kilkudziesięciu lat jest to, że autor nie ma szansy dożyć czasów, dla których tworzy prognozę, więc nie będzie musiał przeżywać negatywnych emocji (wstyd, poczucie śmieszności i podobne, może nawet depresja
).
Prognozowanie w horyzoncie tysięcy lat jest „bezpieczne” z w.w. punktu widzenia, ale dla mnie
prognoza jest, generalnie, tym mniej warta, im mniej wiadomo o ścieżce dojścia do stanu prognozowanego. *
„większości cudów (…) jeśli ktokolwiek(…) dokona, to nie będą to raczej ludzie.”
Czyli jacyś „post-ludzie, blaszani, krzemem myślący”? (PLBKM)
Ale jak do tego doszło? Tzn.
jak dojdzie to tego, że to będą „nie ludzie”? *
Lem:
HODOWLA INFORMACJI„Sporo cybernetyków zajmuje się obecnie problemem „automatyki hipotezotwórczej”.”
(…)
„Największe trudności przedstawiają: sprawa wstępnego powstania w maszynie niezmienników, która decyduje o dalszych już procesach hipotezotwórczych, sprawa pojemności pamięci maszynowej i szybkości dostępu do zawartej tam informacji, jak również regulacyjne opanowanie wzrostu „drzew asocjacyjnych”, które są lawinowo narastającymi, alternatywnymi ujęciami roboczymi. Przy tym niewielki wzrost ilości wstępnie uwzględnionych zmiennych (zjawiskiem niech będzie wahadło, pytanie brzmi: jak wiele zmiennych trzeba uwzględnić, by wypowiadać przepowiednie o jego stanach przyszłych?) powoduje zawalenie się całego tego programu.
Przy pięciu zmiennych wielka maszyna cyfrowa może, działając w tempie miliona operacji na sekundę, przepatrzeć wszystkie ich wartości w ciągu dwu godzin. Przy sześciu zmiennych ten sam proces wymaga 30 000 takich maszyn, pracujących z maksymalną szybkością przez kilkadziesiąt lat. Z czego wynika, że jeśli zmienne są losowe (przynajmniej dla nas: tj. dopóki nie domyślamy się żadnego związku między nimi), żaden w ogóle układ, wszystko jedno, sztuczny czy naturalny, nie będzie mógł operować ilością zmiennych większą od kilkudziesięciu, choćby rozmiarami dorównał Metagalaktyce.” [bold C.]
*
https://en.wikipedia.org/wiki/Sunway_TaihuLightThe Sunway TaihuLight (Chinese: 神威•太湖之光) is a Chinese supercomputer which, as of November 2016, is ranked number one in theTOP500 list as the fastest supercomputer in the world,[1][2] with a LINPACK benchmark rating of 93 petaflops
To jest 0,93 razy 10 do 17.
Jedenaście rzędów wielkości powyżej „wielkiej maszyny cyfrowej, działającej w tempie miliona operacji na sekundę,”
Tak to wygląda po (zaledwie) 55 latach. *
Prawdę mówiąc, nie wiem jak Lem wyliczył, że dodanie szóstej zmiennej będzie wymagało
sześć miliardów razy więcej mocy obliczeniowej, ale nieśmiało podejrzewam, że się pomylił(?).
(Kilkadziesiąt lat – przyjąłem pięćdziesiąt, to jest 438 tysięcy godzin versus dwie, czyli 219 tysięcy razy 30.000 maszyn, razem
6 570 000 000.)
*
„
żaden w ogóle układ, wszystko jedno, sztuczny czy naturalny, nie będzie mógł operować ilością zmiennych większą od kilkudziesięciu, choćby rozmiarami dorównał Metagalaktyce.”
Noo, rozjechało się.
Spektakularnie. A to nawet nie była żadna „
prognoza kształtu społeczeństwa”.
Tylko prognoza mocy obliczeniowych komputerów.
*
https://en.wikipedia.org/wiki/Moore%27s_law“Moore's law (/mɔərz.ˈlɔː/) is the observation that the number of transistors in a dense integrated circuitdoubles approximately every two years. The observation is named after Gordon Moore, the co-founder of Fairchild Semiconductor and Intel, whose 1965 paper described a doubling every year in the number of components per integrated circuit”
1965 r. – zaledwie rok po wydaniu Summy.
C.