Süni ümumi intellekt (SÜİ) — ağıllı agentin hipotetik növü.[1] Reallaşdırıldığı təqdirdə, SÜİ insanların və ya heyvanların yerinə yetirə biləcəyi hər hansı bir intellektual tapşırığı yerinə yetirməyi öyrənə bilər.[2][3] Alternativ olaraq, SÜİ iqtisadi cəhətdən dəyərli işlərin əksəriyyətində insan imkanlarını üstələyən avtonom sistem kimi müəyyən edilmişdir.[4] SÜİ yaratmaq bəzi süni intellekt tədqiqatlarının və OpenAI,[5]DeepMind və Anthropic kimi şirkətlərin əsas məqsədidir. SÜİ elmi fantastika və futurologiya tədqiqatlarının ümumi mövzusudur.
SÜİ-nin inkişafı üçün vaxt qrafiki tədqiqatçılar və ekspertlər arasında davamlı müzakirə mövzusu olaraq qalır. Bəziləri bunun illər və ya onilliklər ərzində mümkün ola biləcəyini iddia edir; başqaları bunun bir əsr və ya daha çox çəkə biləcəyini iddia edir; azlıq bir qisim isə buna heç vaxt nail oluna bilməyəcəyinə inanır.[6] SÜİ-nin dəqiq tərifi və GPT-4 kimi müasir böyük dil modellərinin (LLM) SÜİ-nin erkən, lakin natamam formaları olub-olmaması ilə bağlı mübahisələr yaranmışdır.[7]
SÜİ-nin bəşəriyyət üçün təhlükə yaratma potensialı da mübahisə mövzusudur.[1] Məsələn, OpenAI buna ekzistensial risk kimi yanaşır, digərləri isə SÜİ-nin inkişafını riskdən çox uzaq hesab edir.[6][8][9]
2020-ci ildə keçirilən sorğu zamanı 37 ölkəyə yayılmış 72 aktiv SÜİ TƏ-İN layihəsi aşkar edildi.[10]
SÜİ həmçinin güclü Sİ,[11][12] tam Sİ,[13] insan səviyyəli Sİ[6] və ya ümumi ağıllı hərəkət kimi tanınır.[14] Bununla belə, bəzi akademik mənbələr həssaslıq və ya şüurla qarşılaşan kompüter proqramları üçün "güclü Sİ" terminini özündə saxlayır. Bunun əksinə olaraq, zəif Sİ (və ya dar Sİ) müəyyən bir problemi həll edə bilər, lakin ümumi idrak qabiliyyətlərindən məhrumdur.[15][12] Bəzi akademik mənbələr nə şüur hissi keçirməyən, nə də insanlarla eyni mənada ağıl sahibi olmayan hər hansı proqramlara daha geniş şəkildə istinad etmək üçün "zəif Sİ"dən istifadə edir.
Əlaqədar anlayışlara süni superintellekt və transformativ süni intellekt daxildir. Süni superintellekt insanlardan daha çox intellektli olan hipotetik SÜİ növüdür.[16] Transformativ Sİ anlayışı, məsələn, kənd təsərrüfatı inqilabına bənzər, cəmiyyətə böyük təsir göstərən Sİ ilə əlaqədardır.[17]
↑ 12Kurzweil, Ray, "Long Live AI", Forbes, 5 August 2005a, 2005-08-14 tarixində orijinalından arxivləşdirilib, Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence.":
Lighthill, Professor Sir James, Artificial Intelligence: A General Survey // Artificial Intelligence: a paper symposium, Science Research Council, 1973
Newell, Allen; Simon, H. A., GPS: A Program that Simulates Human Thought // Feigenbaum, E. A.; Feldman, J. (redaktorlar ), Computers and Thought, New York: McGraw-Hill, 1963
Omohundro, Steve, The Nature of Self-Improving Artificial Intelligence, presented and distributed at the 2007 Singularity Summit, San Francisco, California, 2008
Sandberg, Anders; Boström, Nick, Whole Brain Emulation: A Roadmap(PDF), Technical Report #2008‐3, Future of Humanity Institute, Oxford University, 2008, 25 March 2020 tarixində arxivləşdirilib(PDF), İstifadə tarixi: 5 April 2009
Simon, H. A., The Shape of Automation for Men and Management, New York: Harper & Row, 1965
Sutherland, J. G., "Holographic Model of Memory, Learning, and Expression", International Journal of Neural Systems, 1–3, 1990: 256–267.
de Vega, Manuel; Glenberg, Arthur; Graesser, Arthur, redaktorlar Symbols and Embodiment: Debates on meaning and cognition, Oxford University Press, 2008, ISBN978-0-19-921727-4.
Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–98. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learningalgorithms are, at their core, dead simple stupid. They work, but they work by brute force." (p. 198.)
Domingos, Pedro, "Our Digital Doubles: AI will serve our species, not control it", Scientific American, vol. 319, no. 3 (September 2018), pp. 88–93. "AIs are like autistic savants and will remain so for the foreseeable future.... AIs lack common sense and can easily make errors that a human never would... They are also liable to take our instructions too literally, giving us precisely what we asked for instead of what we actually wanted." (p. 93.)
Gleick, James, "The Fate of Free Will" (review of Kevin J. Mitchell, Free Agents: How Evolution Gave Us Free Will, Princeton University Press, 2023, 333 pp.), The New York Review of Books, vol. LXXI, no. 1 (18 January 2024), pp. 27–28, 30. "Agency is what distinguishes us from machines. For biological creatures, reason and purpose come from acting in the world and experiencing the consequences. Artificial intelligences – disembodied, strangers to blood, sweat, and tears – have no occasion for that." (p. 30.)
Hughes-Castleberry, Kenna, "A Murder Mystery Puzzle: The literary puzzle Cain's Jawbone, which has stumped humans for decades, reveals the limitations of natural-language-processing algorithms", Scientific American, vol. 329, no. 4 (November 2023), pp. 81–82. "This murder mystery competition has revealed that although NLP (natural-language processing) models are capable of incredible feats, their abilities are very much limited by the amount of context they receive. This [...] could cause [difficulties] for researchers who hope to use them to do things such as analyze ancient languages. In some cases, there are few historical records on long-gone civilizations to serve as training data for such a purpose." (p. 82.)
Immerwahr, Daniel, "Your Lying Eyes: People now use A.I. to generate fake videos indistinguishable from real ones. How much does it matter?", The New Yorker, 20 November 2023, pp. 54–59. "If by 'deepfakes' we mean realistic videos produced using artificial intelligence that actually deceive people, then they barely exist. The fakes aren't deep, and the deeps aren't fake. [...] A.I.-generated videos are not, in general, operating in our media as counterfeited evidence. Their role better resembles that of cartoons, especially smutty ones." (p. 59.)
Marcus, Gary, "Am I Human?: Researchers need new ways to distinguish artificial intelligence from the natural kind", Scientific American, vol. 316, no. 3 (March 2017), pp. 61–63. Marcus points out a so far insuperable stumbling block to artificial intelligence: an incapacity for reliable disambiguation. "[V]irtually every sentence [that people generate] is ambiguous, often in multiple ways. Our brain is so good at comprehending language that we do not usually notice." A prominent example is the "pronoun disambiguation problem" ("PDP"): a machine has no way of determining to whom or what a pronoun in a sentence—such as "he", "she" or "it"—refers.
Marcus, Gary, "Artificial Confidence: Even the newest, buzziest systems of artificial general intelligence are stymmied by the same old problems", Scientific American, vol. 327, no. 4 (October 2022), pp. 42–45.
Press, Eyal, "In Front of Their Faces: Does facial-recognition technology lead police to ignore contradictory evidence?", The New Yorker, 20 November 2023, pp. 20–26.
Roivainen, Eka, "AI's IQ: ChatGPT aced a [standard intelligence] test but showed that intelligence cannot be measured by IQ alone", Scientific American, vol. 329, no. 1 (July/August 2023), p. 7. "Despite its high IQ, ChatGPT fails at tasks that require real humanlike reasoning or an understanding of the physical and social world.... ChatGPT seemed unable to reason logically and tried to rely on its vast database of... facts derived from online texts."