Süni intellektin hallüsinasiyası — süni intellekt tərəfindən fakt kimi təqdim edilən yalan və ya çaşdırıcı məlumatları ehtiva edən cavab.[1][2][3]
Məsələn, hallüsinasiya edən bir çatbotdan şirkət üçün maliyyə hesabatı hazırlamaq istənildikdə, yanlış olaraq şirkətin gəlirinin 13,6 milyard dollar olduğunu göstərə bilər.[4] Bu cür hadisələr insan psixologiyasındakı hallüsinasiya fenomeni ilə bənzədilərək "hallüsinasiyalar" adlanır. Bununla belə, əsas fərqlərdən biri odur ki, insan hallüsinasiyası adətən yanlış qavrayışlarla əlaqələndirilir, lakin Sİ halüsinasiyası əsassız cavablar və ya inanclar kateqoriyası ilə əlaqələndirilir.[3] Bəzi tədqiqatçılar hesab edirlər ki, xüsusi "Sİ hallüsinasiyası" termini əsassız olaraq kompüterləri antropomorflaşdırır.[5]
Süni intellekt hallüsinasiyası 2022-ci ildə ChatGPT kimi müəyyən böyük dil modellərinin (LLM) tətbiqi ilə ortaya çıxdı.[6] İstifadəçilər şikayət edirdilər ki, bu cür çatbotlar çox vaxt yaratdıqları məzmuna ağlabatan səslənən təsadüfi yalanları mənasız şəkildə yerləşdirirlər.[7] 2023-cü ilə qədər analitiklər hallüsinasiyaları LLM texnologiyasında əsas problem hesab edirdilər. Bəzi təxminlərə görə çatbotların hallüsinasiya "görmə" ehtimalı 27%-dir.[8][9]
Wired tərəfindən sitat gətirilən müxtəlif tədqiqatçılar rəqib hallüsinasiyaları yüksək ölçülü statistik hadisə kimi təsnif etmişlər və ya hallüsinasiyaları kifayət qədər təlim məlumatlarının olmaması ilə əlaqələndirmişlər. Bəzi tədqiqatçılar hesab edirlər ki, insanlar tərəfindən obyektin aşkarlanması zamanı "hallüsinasiyalar" kimi təsnif edilən bəzi "yanlış" cavablar əslində təlim məlumatları ilə əsaslandırıla bilər və ya hətta süni intellekt insanların görə bilmədiyi "düzgün" cavabı verir.
Məsələn, insana adi bir it kimi görünən obrazın süni intellekt tərəfindən əslində (real şəkillərdə) yalnız pişiyə baxarkən görünən kiçik modellər ehtiva etdiyi görülə bilər. Süni intellekt insanların həssas olmadığı real dünyadakı vizual nümunələri oxuyur.[10] Ancaq bu fikirlər digər tədqiqatçılar tərəfindən qəbul edilməyib.[11] Məsələn, modellərin səthi statistikaya qarşı qərəzli ola biləcəyi və bunun rəqib təlimin real dünya ssenarilərində möhkəm olmamasına səbəb ola biləcəyi bildirildi.[11]
↑Zhuo, Terry Yue; Huang, Yujin; Chen, Chunyang; Xing, Zhenchang. "Exploring AI Ethics of ChatGPT: A Diagnostic Analysis". 2023. arXiv:2301.12867 [cs.CL].