Z tego co czytałem halucynacje AI, jakkolwiek też różnie definiowane, są absolutnie nieusuwalne, o ile model nie ma być tylko chińskim pokojem (czyli bazą danych tak-nie). Jeśli dopuszcza się wnioskowanie (czyli odpowiedzi na nieznane pytania), to dopuszcza się błędy (zwane szumnie halucynacjami). W zasadzie każda odpowiedź na pytanie, na które odpowiedź nie znajduje się tak-nie w bazie, jest halucynacją. Z tym, że są halucynacje o plusach dodatnich i ujemnych, mówiąc klasykiem. Plusy ujemne można ograniczać (karcąc model za nadmierną wyobraźnię, za podawanie informacji wprost sprzecznych z zawartymi w podpiętej bazie, wprowadzając konkretne reguły jednostkowe itd.) ale nie da się ich wyeliminować. Chyba, że na wszelkie nietrywialne pytania model będzie filozoficznie odpowiadał, że nie wiadomo.