Samomodyfikujący się algorytm, to jeszcze nie inteligencja (której definicji nie można zresztą określić ostatecznie i autorytatywnie)
Dlatego nosi on miano
"Sztucznej" Inteligencji. Nazwa ma tu dwa zasadnicze znaczenia:
1) Sztucznie wykreowana, stworzona samodzielna jednostka , zdolna do kreatywnego i autonomicznego podejmowania decyzji.
2)Sztuczna, bo naśladująca pierwowzór, którego nie da się dokładnie odwzorować.
Jednak to drugie, jest naszym egoistycznym, ludzkim spojżeniem na sprawę.
Lem przekazuje nam w swych książkach, że ludzie nie będą gotowi na jakikolwiek dalszy rozwój dopóki będą wszysko mierzyć własnym systemem wartości. Nie on pierwszy i nie ostatni.
Dlatego twierdzę, iż jeśli powstanie algorytm, który posiada zdolność do automodyfikacji, czyli doskonalenia, to będzie mógł nosić miano SI.
Co do twojego dalszego pytania. Z tego co pamiętam, prototypy było oparte na jakichś aminokwasach (których - wybacz, nie wiem). Komunikacja następowałą na zasadzie czegoś pośredniego pomiędzy elektroniką, a biologią (bioinzynieria). Co do poszukiwania dalszych informacji, proponuję śledzić stronę Nasa Science, czasami się tam coś ciekawego pojawia.
Teraz trochę od strony technicznej:
podstawowe założenie ww. "użądzeń", opiera się na od dawna znanej, pełnej metodzie wielowątkowej - topografia drzewa, gdzie każde pokolenie jest równocześnie segmentem nadrzędnym dla własnych pokoleń. Już dzisiaj istnieją sieci komputerowa łączone na takiej zasadzie. Noszą miano superjednostek, której osiągają zdolność obliczeniową powyżej 1TFlopa. Zboczyłem z tematu. Tak więc, posiadamy podzespół nadżędny, dla ułatwienia nazwiemy go P1. I tak, P1 posiada (przyjmijmy) 3 pokolenia dziedziczne - PD1, PD2, PD3. P1 otrzymuje złożoną komendę, powiedzmy obliczenia pochodnej dla złożonej funkcji wielomianowej. P1, w celu rozwiązania zadania, przekazuje część informacji PD1, PD2 i PD3. I tak, PD1 np liczy llicznik, PD2 mianownik, a PD3 składa wyniki PD1 i PD2, a potem pochodną. Zadaniem P1 jest nadzór. I tu mamy prosty przykład systemu wielowątkowego.
Na tej ideii oparte są jednostki biologiczne, gdyż nie ciąży na nich fizyczne ograniczenie normalnych komputerów - zajmowana przeszczeń. No może jednak istnieje, ale nie w aż takim stopniu.
Gdy na przestrzeni zajmowanej przez standardowy komputer w specyfikacji BTower, zmieścimy 4 procesory Xeon + 4096GB i uzyskamy złudzenie wielowątkowości, to na tej samej przestrzeni zmieścimy powiedzmy 10-cio krotnie więcej jednostek nowej generacji (procesor zaproponowany przez Motorolle i IBM, ale to temat na inny wątek), lub 1000 krotnie więcej systemów biologicznych. Tak więc potencjał nie trwi w ciągłych dodawaniu Mega, Giga, Tera herców prędkości, czy pojemności. Tylko nad wykorzystaniem tych zasobów.
Trochę namieszałem.
Może ktoś jednak coś z tego zrozumie.