To jest możliwe, ale z drugiej strony nie wszystkie procesy zawierające "składnik chaotyczny" są z tego powodu chaotyczne. Wręcz przeciwnie, bardzo wiele nie (prawie całe nasze otoczenie). Oczywiście nie chcę tu ważyć, czy atmosfera nad naszymi głowami nie jest większa niż "całe nasze otoczenie" itp. tym niemniej składowa chaotyczna nie zawsze prowadzi do chaosu.
Przyznaję, nie do końca zrozumiałem tę Twoją myśl, maźku. Wydaje się, skoro "stała + zmienna = zmienna", to tak samo,
per analogiam, "porządek + chaos = chaos"...
Prawie całe nasze otoczenie – nie? szczerze pisząc, jestem nieco zdziwiony, gdyż myślałem, że porządek to raczej wyjątek z reguły w naszym świecie. Coś w rodzaju wysepki w oceanie chaosu. Ale może się myliłem?
To bardzo trudne pytanie. Raczej filozoficzne (pozostanie bez odpowiedzi). Na początek, czy w ogóle matematyka może opisywać rzeczywistość (jako "język" fizyki)? Czy tylko zgadza się z nią z bardzo dobrym przybliżeniem (ale jednak przybliżeniem)?
Zgadza się z bardzo dobrym przybliżeniem. Z dokładnością do nieskończenie małej. Ale fizyka chyba nie ma tu nic do rzeczy, bo nawet w swojej własnej dziedzinie matematyka jest nauką poniekąd nieścisłą. Nawet takiej czysto matematycznej, nie fizycznej, wielkości jak pole powierzchni koła nie można obliczyć ściśle, tylko z dokladnością do tej samej nieskończenie małej.
W odniesieniu do świata fizycznego matematykę można w pewnym sensie porównać do przyrządu pomiarowego. Metrologia uczy, że precyzja pomiaru nie może być wyższa, niż na to pozwala klasa dokładności przyrządu.
Na pewno tak było i musiało być, jeśli proces był stochastyczny, jak piszesz. Proces stochastyczny to taki, w którym każdy kolejny stan jest losowy w stosunku do poprzedniego. Rzucając monetą (co jest chyba najprostszym przykładem takiego procesu) nie jesteś w stanie nigdy przewidzieć wyniku następnego rzutu.
O ile dobrze wiem, dowolny komputerowy model procesu stochastycznego z zasady nie może być w pełni „stochastycznym”. Tak samo jak dowolny programowy generator liczb losowych jest w istocie generatorem pseudolosowym, opartym o jakiś określony algorytm. A wygenerowany w taki sposób ciąg liczb zawsze cechuje pewna ukryta prawidłowość. Innymi słowy, komputer modeluje nie proces losowy, tylko niby-losowy. Czyli w pewnym sensie „chaotyczny deterministycznie”, jeśli można tak powiedzieć.
A zatem, gdyby to co pisałem o niezbieżności rezultatów kolejnych symulacji było prawdą, a nie błędem technicznym lub metodologicznym, to chyba nie dlatego, że modelowany proces był stochastyczny. Przyczyna leży gdzie indziej. Diabli wiedzą gdzie...
W chaosie deterministycznym kolejny stan można przewidzieć z dowolną precyzją (zależną tylko od "długości kartki", na której zamierzasz zapisać wynik). To jest właśnie najbardziej niesamowite, że matematyczne wzory obliczane do najdalszego możliwego miejsca po przecinku dają w efekcie chaos, mimo, że każde "posunięcie" jest ścisłe i deterministyczne.
i
...wiemy, że znane prawa rządzące danym zjawiskiem z matematyczną ścisłością prowadzą do chaosu deterministycznego - czyli najmniejsza odchyłka w warunkach początkowych musi doprowadzić do rozejścia się efektów? W matematyce (komputerze) jest to możliwe - ale czy możliwe to jest w fizyce? Nasze możliwości w zakresie zapewnienia ilości miejsc po przecinku są znacznie większe, niż możliwości w zakresie precyzyjnego pomiaru realnych wartości. Tzn. dokładność pomiaru jest np. 12 miejsc po przecinku, a liczyć możemy liczby znacznie, znacznie dłuższe - a i tak wychodzi z tego chaos.
Hm.
Z dowolną precyzją...Przeprowadźmy eksperyment myślowy. Ot, my mamy do dyspozycji komputer o niezwykle dużej, może nieskończonej mocy obliczeniowej i pamięci, i modelujemy chaos deterministyczny. Wprowadzamy do maszyny dane wejściowe z dokładnością do 5 miejsca po przecinku i otrzymujemy w wyniku taki a taki stan układu. Następnie wprowadzamy te same dane, ale z dokładnością do 10, 20, 30, 100, n-tego miejsca. Zakładamy, że podczas obliczeń maszyna nie zaokrągla danych.
Jak sądzisz, maźku, wyniki za każdym razem będą zasadniczo różnić się od siebie, jak w modelu Lorenza? I to
ad infinitum? Czy też po osiągnięciu pewnej określonej dokładności danych wejściowych – nie będą? W sensie, chaotycznych, „katastrofalnych” zmian w układzie już nie będzie? I jeśli to drugie, to jakiego rzędu wielkości może być owa „granica precyzji”?