No właśnie nie wiem, co robi algorytm, kiedy wie, że ma niepełne dane albo że dane są sprzeczne. Staje? Człowiek próbuje wybrnąć z sytuacji a maszyna? W ogóle to ja wątpię, aby w ogóle ktoś wiedział, jak ten algorytm działa. Maszynowe uczenie nie mówiąc o AI dawno już przekroczyło próg dostępności zrozumienia działania na zasadzie, że to wynika z tego, a to z tego, łańcuszek i wiadomo że jak na wejściu to, to po kolei to i to się przełączy i na końcu wyjdzie efekt. Pomijając, że jeśli to się w ogóle "uczy" w czasie użytkowania (mam nadzieję, że nie
), to już w ogóle nie wiadomo, które sprzężenia się wzmacniają, a które osłabiają. Jakiś czas temu gruchnęła wiadomość z USAF, że inteligentny dron militarny, którego wysokim priorytetem było zniszczenie pewnego celu, zlikwidował bunkier, w którym siedział jego operator, bo ten próbował do zniszczenia celu nie doprowadzić i mu przeszkadzał. Ćwiczenia oczywiście i nie wiadomo, czy prawda, ale samochód tez może w sumie dojść do wniosku jak Calder w Rozprawie, że najprościej dać 25g załatwić Pirxa i resztę lepniaków, to dalej już pojedzie się malinowo. Ciekawe, czy autonomiczny samochód w ogóle przewiduje opcję niedoprowadzenia do kolizji poprzez złamanie przepisów lub "ucieczkę do przodu" Parę razy w życiu wykonałem absolutnie niedozwolone manewry ratując skórę, np. dodając gazu zamiast hamować. Albo czy rozważa mniejsze zło? I czyje
? Swoje, czy lepniaków? Ja temu w życiu nie zawierzę. To się sprawdza w samolotach, gdzie niezależnie od komplikacji sterowania samą maszyną, z których części w ogóle człowiek bez komputera pilotować nie jest w stanie, kwestia nawiązania się do rzeczywistości wymaga pilnowania 3 parametrów - kursu, prędkości i wysokości. Albo na statkach, gdzie odpada wysokość
. Jako wspomagacz, w rodzaju, że dziadek zasną to się za dziadka zatrzyma na czerwonym a nie wjedzie w stojący samochód tak, ale żeby miał tak w ogóle za mnie choćby przyspieszać i hamować to nie w tym życiu.