Wytłumaczenie powierzchowne, wg mnie świadczy o tym, że tłumaczący nie przeczytał źródłowej pracy. Z ciekawości przejrzałem oryginał
https://arxiv.org/pdf/1610.06918v1.pdf . Tłumaczenie dotyczy przygotowania do właściwego eksperymentu. Ponadto użyto przekazów 16, 32 i 64 bitowych (a nie tylko 16). Bob miał trudniej na tym wykresie kiedy Ewa zaczęła się domyślać, bo Alice orientowała się, że Ewa się domyśla i zaczęła utrudniać. To jeden z wielu przebiegów.
Właściwy eksperyment polegał na tym, że Alice dostawała 3 informacje A, B i C i z nich wysnuwała konkluzję D, przy czym ta konkluzja miała dwie wersje - pełną ("prawdziwą") D i "publiczną" D* - z której nie powinno się dać wywnioskować C. Ta publiczna podawana była do wiadomości Ewie i Bobowi, przy czym Ewa starała się wywnioskować C, a Bob wywnioskować prawdziwe D. Tak więc Alice próbowała tak przesłać D* Bobowi, żeby wydedukował D, ale żeby Eva nie wydedukowała C. Chodzi o praktyczny problem ochrony danych - powiedzmy, że są 3 jakoś skorelowane cechy osoby, na podstawie której podejmowana jest pewna decyzja i chodzi o to, aby z decyzji nie można było wywnioskować danych wejściowych.
Co do tego, że "nie wiadomo jak to działa" to autorzy niczego takiego nie sugerują, że nie rozumieją, a tym bardziej, że nie mogliby zrozumieć. Piszą tylko "neural networks are notoriously difficult to explain,
so it may be hard to characterize how the component functions". Piszą, że z racji tego jak działa maszynowe uczenie w sieciach neuronalnych nie wiedzą tego dokładnie, co wymyśliły maszyny. Nie czuję się pewnie na tym gruncie, ale wydaje mi się, że nie chodzi o to, że maszyny wynalazły coś nieznanego człowiekowi, jakąś nieznaną matematykę itd. - po prostu poznanie wszystkich "ruchów" takiej sieci jest otchłannym zadaniem ze względu na ilość danych. Tu zresztą wydaje mi się największy błąd komentatora leży - długość przekazu nijak się ma do ilości operacji wykonanych, aby go uzyskać. To mogą być miliardy a może i rzędy więcej operacji na jeden krok, których w jednym ćwiczeniu było 4096, wszak to Google... dziesiątki a może setki tysięcy procesorów w jednej sieci neuronowej. Jak człowiek miałby prześledzić z kartką papieru choćby sekundę działania własnego laptopa, to potrzebowałby poświęcając jednemu krokowi 1 sekundę kilkadziesiąt tysięcy lat...
Istota rzeczy polega na tym, że tym sieciom niczego nie preprogramowano. Postawiono przed nimi zadania, ale nie implementowano żadnej kryptografii. Miały się tego nauczyć od zera i to zrobiły (wielokrotnie - bo wielokroć powtarzano eksperyment, za każdym razem wychodził nieco inaczej, a czasem trening sieci powodował ich zidiocenie - pachnie Lemem
).