Autor Wątek: AI - przerażająca (?) wizja  (Przeczytany 1153251 razy)

Hoko

  • Juror
  • God Member
  • *****
  • Wiadomości: 3301
    • Zobacz profil
Odp: AI - przerażająca (?) wizja
« Odpowiedź #1155 dnia: Marca 14, 2026, 11:18:32 am »
za tym, co nazywane jest halucynacjami, stoją pewnie rozmaite mechanizmy - brak szerszego kontekstu(społecznego, kulturowego,technicznego itd.); brak hierarchii ważności, która u ludzi jest nie tylko formalna, ale na pewnym poziomie odwołuje się do emocji; w końcu pewnie też kwestie optymalizacji, czyli warunkowanie, żeby zadania były wykonywane możliwie małym kosztem obliczeniowym. Jak się wszystko razem zejdzie, to mogą dziać rozmaite cuda.

a tu ciekawe rzeczy na temat szkolenia AI
https://www.404media.co/ai-is-african-intelligence-the-workers-who-train-ai-are-fighting-back/

maziek

  • YaBB Administrator
  • God Member
  • *****
  • Wiadomości: 14237
  • zamiast bajek ojciec mi Lema opowiadał...
    • Zobacz profil
Odp: AI - przerażająca (?) wizja
« Odpowiedź #1156 dnia: Dzisiaj o 11:59:24 am »
Z tego co czytałem halucynacje AI, jakkolwiek też różnie definiowane, są absolutnie nieusuwalne, o ile model nie ma być tylko chińskim pokojem (czyli bazą danych tak-nie). Jeśli dopuszcza się wnioskowanie (czyli odpowiedzi na nieznane pytania), to dopuszcza się błędy (zwane szumnie halucynacjami). W zasadzie każda odpowiedź na pytanie, na które odpowiedź nie znajduje się tak-nie w bazie, jest halucynacją. Z tym, że są halucynacje o plusach dodatnich i ujemnych, mówiąc klasykiem. Plusy ujemne można ograniczać (karcąc model za nadmierną wyobraźnię, za podawanie informacji wprost sprzecznych z zawartymi w podpiętej bazie, wprowadzając konkretne reguły jednostkowe itd.) ale nie da się ich wyeliminować. Chyba, że na wszelkie nietrywialne pytania model będzie filozoficznie odpowiadał, że nie wiadomo.
Człowiek całe życie próbuje nie wychodzić na większego idiotę niż nim faktycznie jest - i przeważnie to mu się nie udaje (moje, z życia).