HALLÜSİNASİYA

I
сущ. галлюцинация (ложное восприятие, принимаемое за образы реальных предметов и возникающее на почве расстройства деятельности мозга). Görmə hallüsinasiyası галлюцинация зрения, eşitmə hallüsinasiyası галлюцинация слуха, iybilmə hallüsinasiyası галлюцинация обоняния
II
прил. галлюцинаторный (вызываемый или сопровождаемый галлюцинацией). Hallüsinasiya vəziyyəti галлюцинаторное состояние
HALLICA-DULLUCA
HALOFİTLƏR
OBASTAN VİKİ
Hallüsinasiya (süni intellekt)
Süni intellektin hallüsinasiyası — süni intellekt tərəfindən fakt kimi təqdim edilən yalan və ya çaşdırıcı məlumatları ehtiva edən cavab. Məsələn, hallüsinasiya edən bir çatbotdan şirkət üçün maliyyə hesabatı hazırlamaq istənildikdə, yanlış olaraq şirkətin gəlirinin 13,6 milyard dollar olduğunu göstərə bilər. Bu cür hadisələr insan psixologiyasındakı hallüsinasiya fenomeni ilə bənzədilərək "hallüsinasiyalar" adlanır. Bununla belə, əsas fərqlərdən biri odur ki, insan hallüsinasiyası adətən yanlış qavrayışlarla əlaqələndirilir, lakin Sİ halüsinasiyası əsassız cavablar və ya inanclar kateqoriyası ilə əlaqələndirilir. Bəzi tədqiqatçılar hesab edirlər ki, xüsusi "Sİ hallüsinasiyası" termini əsassız olaraq kompüterləri antropomorflaşdırır. Süni intellekt hallüsinasiyası 2022-ci ildə ChatGPT kimi müəyyən böyük dil modellərinin (LLM) tətbiqi ilə ortaya çıxdı. İstifadəçilər şikayət edirdilər ki, bu cür çatbotlar çox vaxt yaratdıqları məzmuna ağlabatan səslənən təsadüfi yalanları mənasız şəkildə yerləşdirirlər. 2023-cü ilə qədər analitiklər hallüsinasiyaları LLM texnologiyasında əsas problem hesab edirdilər. Bəzi təxminlərə görə çatbotların hallüsinasiya "görmə" ehtimalı 27%-dir. == Analiz == Wired tərəfindən sitat gətirilən müxtəlif tədqiqatçılar rəqib hallüsinasiyaları yüksək ölçülü statistik hadisə kimi təsnif etmişlər və ya hallüsinasiyaları kifayət qədər təlim məlumatlarının olmaması ilə əlaqələndirmişlər.
Süni intellektin hallüsinasiyası
Süni intellektin hallüsinasiyası — süni intellekt tərəfindən fakt kimi təqdim edilən yalan və ya çaşdırıcı məlumatları ehtiva edən cavab. Məsələn, hallüsinasiya edən bir çatbotdan şirkət üçün maliyyə hesabatı hazırlamaq istənildikdə, yanlış olaraq şirkətin gəlirinin 13,6 milyard dollar olduğunu göstərə bilər. Bu cür hadisələr insan psixologiyasındakı hallüsinasiya fenomeni ilə bənzədilərək "hallüsinasiyalar" adlanır. Bununla belə, əsas fərqlərdən biri odur ki, insan hallüsinasiyası adətən yanlış qavrayışlarla əlaqələndirilir, lakin Sİ halüsinasiyası əsassız cavablar və ya inanclar kateqoriyası ilə əlaqələndirilir. Bəzi tədqiqatçılar hesab edirlər ki, xüsusi "Sİ hallüsinasiyası" termini əsassız olaraq kompüterləri antropomorflaşdırır. Süni intellekt hallüsinasiyası 2022-ci ildə ChatGPT kimi müəyyən böyük dil modellərinin (LLM) tətbiqi ilə ortaya çıxdı. İstifadəçilər şikayət edirdilər ki, bu cür çatbotlar çox vaxt yaratdıqları məzmuna ağlabatan səslənən təsadüfi yalanları mənasız şəkildə yerləşdirirlər. 2023-cü ilə qədər analitiklər hallüsinasiyaları LLM texnologiyasında əsas problem hesab edirdilər. Bəzi təxminlərə görə çatbotların hallüsinasiya "görmə" ehtimalı 27%-dir. Wired tərəfindən sitat gətirilən müxtəlif tədqiqatçılar rəqib hallüsinasiyaları yüksək ölçülü statistik hadisə kimi təsnif etmişlər və ya hallüsinasiyaları kifayət qədər təlim məlumatlarının olmaması ilə əlaqələndirmişlər.

Digər lüğətlərdə