Rozmawialem jakis czas temu z osoba bardzo kompetetna na temat AI. Sam kompetentny nie jestem, wiec moglem sie jedynie slizgac po temacie i zadawac glupie pytania. Gosc pracuje nad tworzeniem oprogramowania AI i praktycznych jej zastosowan.
Pytam sie go na jakim etapie sa prace nad AI, a on mi na to, ze kwitna w najlepsze i juz dzialaja. Zrobilem oczy i dopiero musielismy rozgraniczyc to jak AI rozumieja programisci i ze jest to niezwiazane w ogole ze swiadomoscia. No wiec on pracuje nad programami, ktore pracujac (i analizujac) na niekompletnych bazach danych potrafia te brakujace dane same sobie wymyslec i na tym generalnie AI sie zasadza. Im wieksza baza danych, tym latwiej i w wiekszej ilosci moga brakujace dane "dorobic". Jego programy miedzy innymi sluza do projektowania lekarstw na poziomie molekularnym i wstepnego ich testosowania, w formie modelow komputerowych.
Najbardziej zaawansowany w pracach nad AI jest Google, ze wzgledu na srodki i najwieksze bazy danych.
Zapytalem wiec co ze swiadomoscia AI, czy jest to czysta SF czy wydaje mu sie, ze moze to nastapic. Twierdzi, ze generalnie nie widzi przeszkod technicznych i ze jest to mozliwe, a przejscie testu Turinga nie powinno byc problemem.
Sam nie wiem, czy powinienem sie z tego cieszyc, czy raczej bac?
Tak somie mysle, ze moze jak juz AI nabierze bardziej realnego wymiaru, trzeba jej bedzie wbudowac jakies dodatkowe oprogramowanie symulujace moralnosc, czy system wartosci, zeby nas nie wziela pod obcas. Serial West World sporo tych problemow poruszal.