Powiem szczerze, że do dyskusji o AI zniechęca mnie okazywany dość często (hiper)entuzjazm, że AI (silna, AGI) jest tuż za zakrętem (a wg Lemoine, który nie wziął proszków, już nastąpiła).
Mam następujące pytanie: dlaczego jest tak źle, skoro jest (rzekomo) tak dobrze? (przy założeniu, że AI to szansa, a nie zagrożenie).
Prace nad samochodem autonomicznym, czyli nad programem-kierowcą trwają od dekad. W Waymo przez trzynaście lat wydali pięć i pół miliarda dolarów. Skutek jest na razie taki, że powoli i ostrożnie jeżdżą po jednym kompletnie zmapowanym podmiejskim osiedlu.
Na czym konkretnie polegają problemy, nie wiadomo, bo firmy nie chwalą się porażkami, ale zasadniczy problem jest oczywisty: komputer nie rozumie świata, na który patrzy swoim kamerami (a czasem także lidarem).
A przecież komputer na starcie miał i ma szereg przewag nad człowiekiem: nigdy nie jest niewyspany, nigdy nie jest skacowany ani po narkotykach, nie wyjeżdża z domu po awanturze, nie martwi się, że kiedy dojedzie do pracy, to zostanie skrytykowany za niewykonanie planu, nigdy się nie zagapia się, nie może być roztargniony.
No i ma coraz większe moce obliczeniowe, a człowiek ciągle potrzebuje te ca 0,4 sekundy, żeby zrozumieć, co się przed nim (i wokół niego) dzieje.
Waymo chwali się, że ich samochody przejechały miliony mil w realu i chyba miliardy mil symulowanych, ale ciągle (jak się domyślam) ich program ma problem z oceną, czy (na przykład) z samochodu przed nim spadła ciężka beczka, którą należy ominąć, choćby manewr był ryzykowny (bo beczka może wpaść do kabiny), czy też sfrunął worek foliowy o podobnych gabarytach, który można i należy „staranować”.
A tu nie ma zmiłuj, świadectwo jednego pana, który nie wziął proszków, nie pomoże.
Licencję na jazdę po niezmapowanym terenie i na zasadach ogólnych będzie wydawała NTSB.