Jeśli szyfrowanie danych legnie w gruzach, to świat się mocno zmieni, tylko, że na razie bardzo niewiele (jeśli cokolwiek) wskazuje, że tak się może stać. Pomiędzy ewentualnym ułatwieniem (dzięki komputerowi kwantowemu) łamania szyfrów, a zatem utrudnieniem skutecznego szyfrowania, a "położeniem szyfrowania w gruzach" odległość wynosi lata świetlne.
Otóż, według mnie, jest to mylna ocena. Porównać ją można (by było) do niefrasobliwości jaką okazałyby Stany wiedząc, że jest teoria pozwalająca zbudować bombę atomową i znając przebieg eksperymentów (w stanie takim, w jakim był on u progu DWŚ) - gdyby wówczas uznały, że "daleka droga" i nie ma sobie czym głowy zawracać, pożywiom-uwidim.
Jest teoria, jak dotąd niepodważona i oto mamy pierwsze doniesienia, że można ją wprowadzić w życie. Zarówno potęga US jak i całego NATO opiera się na supremacji techniki militarnej, której bardzo istotnym składnikiem jest informacja, przesyłana pomiędzy wszystkimi szczeblami wojskowymi i państwowymi. W wielu przypadkach (w tym bezzałogowców, ale nie tylko) ta supremacja wynika niemalże wyłącznie z tego, że niezaburzone są kanały przepływu informacji. Jeśli prezydent USA widzi w czasie rzeczywistym w Białym Domu obraz z kamer zainstalowanych na karabinach czy hełmach żołnierzy szturmujących dom Osamy to tylko dzięki temu, że taki właśnie przepływ informacji jest możliwy. Jeśli Stany grożą rakietami państwom, z których terytoriów dokonywane są ataki cybernetyczne na komputery armii - to świadczy o wadze informacji. Trzeba sobie dobrze zdać sprawę, że informacja obecnie jest ważniejsza od karabinów a nawet liczby pocisków międzykontynentalnych.
Kwestia na ile szybciej będzie można złamać szyfr, których szyfrów to dotyczy, czy jest coś dobrego w tym, że szyfrować można szybciej bądź silniej to są sprawy istotne, ale jasne jest, że sama zmiana status quo w tej mierze jest dla takiego państwa jak Stany żywotnie istotna. A będzie to zmiana status quo, ponieważ nie jest to zmiana ilościowa, polegająca na budowie potężniejszego superkomputera a jakościowa. Takie państwo co najmniej musi być pewne, że to ono ma w tym względzie absolutną przewagę technologiczną ale musi ono także być teoretycznie przygotowane, tzn. wiedzieć czym taka technologia w rękach wroga grozi i ile wróg może nawojować ją mając. Czy to jest odległe o "lata świetlne"? Nie wiem ile to dla Ciebie, "lata świetlne" bo to nic nie znaczy - masz na myśli rok, 5 lat, 20 lat, "za mojego życia"?
Żeby powiedzieć, że "nie ma się czego bać" trzeba by wykazać, że albo teoria jest licha, albo, że to jest technologicznie niemożliwe. Tymczasem obecnie obie te kratki trzeba odfajkować na plus, nawet jeśli nie opierać się w ogóle na doniesieniu o zakupie "czegoś kwantowego" przez Lockheeda.
Nawet jeśli przyjmiemy górną granicę kosztów R&D Watsona (tzn. 1.8 miliarda USD), dodamy konieczność dalszych prac i budowy wersji specjalizowanych branżowo, to wydaje się, że istnieje spora szansa na dochodowy produkt.
Z tego co zrozumiałem jeden Watson zastąpił JEDNEGO człowieka w tej grze tak? Ponieważ jesteś idealistą i wierzysz w Nowy Wspaniały Świat, (który wypączkuje z najbardziej rozwiniętych krajów Europy a reszta świata zniknie razem z problemami) nie interesuje Cię, co się stanie z milionem pracowników call-centrów w UK czy gdziekolwiek (a nawet nieco bardziej przyziemnie, nie interesuje Cie skąd w takiej sytuacji wziąć pieniądze na ich zasiłki) to tego nie musimy tu dyskutować. Ograniczmy się do kwestii ilu trzeba Watsonów (obecnie) aby zastąpić jednego pracownika i czy to się opłaca. Przypuszczam, że Watson potrafiłby prowadzić kilka (naście, dziesiąt, set?) rozmów na raz (szczególnie gdyby padały pytania o nr telefonu itd.) ale czy wiadomo choćby pobieżnie ILE?
„Autonomicznie” w przypadku Urban Challenge oznaczało przejechać trasę, zarówno w terenie, jak i po mieście. W teście finałowym po miasteczku nieczynnej bazy krążyło 47 samochodów prowadzonych przez kaskaderów, a pojazdy testowe miały za zadanie przestrzegać przepisy drogowe i nie zderzać się z kaskaderami.
Pojazdy testowe oczywiście nie były sterowane przez radio, tylko przez komputer pokładowy.
Co więcej, dane dotyczące trasy załogi otrzymywały tuż przed startem i miały bodaj pięć minut na wgranie ich do komputera pokładowego.
Czyli samochód, pozycjonowany GPS(?) miał przejechać z miejsca A do miejsca B, po znanej trasie, wg znanej mapy i znanego algorytmu (przepisy) a jedyne "zmienne" to była obecność poruszających się przedmiotów nieuwzględnionych na planie? I to nie wyszło?
Przy czym, powtarzam, Urban Challenge to było zebranie początkowych pomysłów. ... wydaje mi się, że osiem lat pracy profesjonalnego zespołu daje szanse nawet na skończony produkt.
A nie mam powodu podejrzewać, że Armia wystawiła do tego słabszy zespół niż te, które konstruują kolejne generacje samolotów bezzałogowych i granatniki, których pociski wiedzą, gdzie wybuchnąć.
Ale widzisz tu ja Ci wykazuję słabości Twego rozumowania:
- nie ma dobrej teorii (przynajmniej tak twierdził w roku 2010 jeden z zajmujących się sprawą naukowców) - póki jej nie będzie NIE BĘDZIE maszynowego widzenia w "zwyczajnym" środowisku 3D - a takie widzenie jest koniczne aby "orientować się" w sytuacji. Można to obejść (w rzeczywistym środowisku) tylko w jeden sposób - kazać komputerowi hamować zawsze "kiedy nie wie, o co chodzi" - i tak zdaje się ten Urban Challenge w dużej mierze wyglądał ;> .
- dlaczego wojskowym to nie przeszkadza, nawet jeśli tej teorii także nie mają i dlaczego mogą realizować projekty bezzałogowców - ponieważ poruszają się one w określonym środowisku - tak jak pojazdy szynowe, nic nie muszą kombinować, mają wirtualną mapę 3D w której pewne elementy są zaznaczone na zielono, szaro albo na czerwono. W tej sytuacji autonomia pojazdu ogranicza się do utrzymania równowagi (to akurat świetnie idzie) albo do "odruchowej" reakcji na nagły bodziec (np. zbliżającą się głowicę) - a to też świetnie potrafią obecne, załogowe pojazdy, okręty czy statki powietrzne. Komputer tego pojazdu nie musi analizować otaczającego go "całokształtu". Całokształt analizuje "cyfrowe pole walki", gdzieś w jakimś bunkrze, np. w Newadzie.
Żołnierze obsługujący Big Dogi działaliby w granicach instrukcji, a obraz z każdej kamery byłby oczywiście archiwizowany i w miarę potrzeby analizowany.
Na pewno bardzo to ucieszy zabitych.
Operator Big Doga miałby moim zdaniem WIĘKSZĄ niż żywy żołnierz na polu walki szansę uniknięcia pomyłki skutkującej stratami wśród ludności cywilnej, bo jego życie nie byłoby zagrożone, w najgorszym wypadku straciłby tylko maszynę, więc byłoby go stać na wstrzymanie się z otwarciem ognia.
Idealistycznie masz rację, ale w praktyce jest jak zwykle - to znaczy jest masa doniesień o rozwaleniu domów z ludnością cywilną czy pojedynczych pojazdów przez pomyłkę w Afganistanie czy Iraku przez predatory (czy załogowe helikoptery i samoloty wykonujące misje niebezpośrednie - odpalające pociski "gdzieś z nieba" do celów wskazanych przez komputer (końcówkę sztabu) - czyli na jedno wychodzi). Nie chcę przez to powiedzieć, że jest takich przypadków więcej (jest, ale powody są skomplikowane i byłoby uproszczeniem zwalać na karabin). Nie ma nic lub niewiele do rzeczy w kwestii uniknięcia pomyłki, czy strzelający żołnierz jest żywy, czy sztuczny - to jest kwestia informacji a konkretnie rozpoznania celu. Jest jakiś poziom pewności, przy którym ciągnie się za spust, dla snajpera policji jest to może 98%, dla celów wojskowych może 70 a może 50% w strefie działań wojennych. Wojsko np. rozwali kawalkadę pojazdów, o których sądzi, że w jednym z nich jest, z pewną dozą prawdopodobieństwa osoba, którą zamierza zlikwidować. Tak po prostu jest i sama wymiana żołnierzy na roboty nie zmieni tego ani trochę.