Süni intellekt (Sİ) sistemləri ilə ünsiyyət quran hər bir istifadəçinin qarşılaşdığı ən maraqlı və eyni zamanda ən təhlükəli məqam onun “yanılmazlıq” illüziyasıdır. Bəzən Sİ elə bir inamla, elə bir mükəmməl cümlə quruluşu ilə danışır ki, onun verdiyi məlumatın yanlış olduğunu dərhal hiss etmək qeyri-mümkün olur. Texnologiya dünyasında bu hadisəyə “hallucination”, Azərbaycan dilində isə “uydurma cavab” və ya “halüsinasiya” deyilir.
Uydurma cavab — süni intellektin faktiki olaraq mövcud olmayan məlumatları sanki mütləq həqiqətmiş kimi təqdim etməsidir. Bu, Sİ-nin bilərəkdən yalan danışması deyil, onun işləmə mexanizminin bir nəticəsidir.
Süni intellektin (xüsusilə Böyük Dil Modellərinin – LLM) əsas vəzifəsi “həqiqəti tapmaq” deyil, “statistik olaraq ən məntiqli mətni qurmaq”dır. O, sanki dünyanın ən böyük kitabxanasını oxumuş, lakin oxuduqlarının mənasını tam dərk etməyən, sadəcə sözlərin bir-biri ilə necə yan-yana gəldiyini əzbərləyən bir “proqnoz maşını”dır.
Sİ-nin uydurma cavab verməsinin kökündə üç əsas səbəb dayanır:
Məlumat bazasındakı ziddiyyətlər (Data qarışıqlığı): Sİ-nin təlim keçdiyi internet məkanında həm elmi faktlar, həm də yanlış fərziyyələr yan-yanadır. Sİ bu məlumatları emal edərkən bəzən doğru ilə yanlışı bir-birinə qarışdırır.
Sualın qeyri-müəyyənliyi: İstifadəçi sualı ümumi və ya dumanlı qoyduqda, Sİ boşluqları doldurmaq üçün “təxmin” etməyə başlayır. Məsələn, “Mənə sağlamlıq məsləhəti ver” dedikdə, o, sizin fiziki vəziyyətinizi bilmədiyi üçün ümumi və bəzən sizə uyğun olmayan (yanlış) məlumatlar istehsal edir.
“Bilmirəm” deməkdən çəkinməsi: Sİ sistemləri hər zaman istifadəçini məmnun etmək və dialoqu davam etdirmək üçün proqramlaşdırılıb. Buna görə də, cavabı bilmədikdə “bilmirəm” demək əvəzinə, əlindəki məlumat qırıntılarından yeni və “məntiqli görünən” bir hekayə uydurur.
Uydurma cavabı necə tanımalı: 5 əsas əlamət: Süni intellektin uydurduğunu anlamaq üçün aşağıdakı əlamətlərə diqqət yetirməlisiniz:
Həddindən artıq özünə inam: Sİ uydurma faktı deyərkən belə “şübhəsiz ki”, “əlbəttə” kimi qətiyyətli ifadələr işlədir.
Mənbəsiz konkretlik: Sizə konkret tarix, rəqəm və ya
ad verir, lakin bu məlumatın hansı rəsmi sənədə və ya sayta əsaslandığını göstərmir (və ya uydurma linklər verir).
Müəllif və kitab uydurma: Mövcud olmayan kitab adlarını real müəlliflərin adına çıxarır və ya əksinə.
Mövzuya uyğun “ideal” bağlamlar: Cavab o qədər mükəmməl və hamar görünür ki, reallığın “qüsurlarını” daşımır.
Sual qarşısında geri çəkilmə: Siz “Bu məlumatın düzgünlüyünə əminsən?” deyə soruşduqda, dərhal üzr istəyərək tamamilə fərqli (bəzən yenə yanlış) bir cavab verir.
Təhlükəli sahələr və təhlükəsizlik qaydası
Sİ-nin uydurmaları bəzi sahələrdə sadəcə gülməli olsa da, bəzi sahələrdə həyati əhəmiyyət kəsb edir. Sİ-dən gələn cavabları mütləq “üçlü yoxlama” süzgəcindən keçirməlisiniz:
Sağlamlıq: Tibbi diaqnoz və müalicə üçün Sİ-yə güvənmək olmaz. O, yalnız həkimlə danışmaq üçün sizə suallar hazırlamaqda kömək edə bilər.
Hüquq: Qanunvericilik və məhkəmə işləri üzrə Sİ köhnəlmiş və ya uydurma maddələr göstərə bilər.
Maliyyə: İnvestisiya və pul vəsaitlərinin idarə edilməsində Sİ
Süni intellektin (Sİ) proqnozları faktiki bazar reallığından uzaq ola bilər.Uydurma cavabdan qorunmağın çıxış yolları
Sİ-ni daha dürüst olmağa məcbur etmək sizin əlinizdədir. Bunun üçün:
Dəqiqlik tələb edin: “Mənə yalnız rəsmi mənbələrə əsaslanan məlumat ver” komandasını əlavə edin.
Mənbə yoxlaması: Sİ-dən mütləq link və ya istinad tələb edin. Əgər link işləmirsə, məlumatın uydurma olma ehtimalı 90%-dir.
Dürüstlük komandası: Sualın sonuna “Əgər cavabı dəqiq bilmirsənsə, lütfən uydurma, sadəcə bilmədiyini demə” cümləsini əlavə etmək Sİ-nin “halüsinasiya” ehtimalını kəskin azaldır.
Müəllifin fikri: Süni intellekt çox ağıllı və geniş məlumatlı bir köməkçidir, lakin o, həqiqətin deyil, ehtimalların xidmətçisidir. Ona kor-koranə inanmaq yox, onu bir məsləhətçi kimi dinləyib, son qərarı həmişə öz məntiqiniz və real mənbələrlə vermək lazımdır. Unutmayın: ağıllı texnologiya yalnız ağıllı istifadəçinin əlində faydalı olur.İstinad və faydalı keçidlər
ChatGPT: chat.openai.com — Ən populyar Sİ, lakin yoxlanılmalıdır.
Perplexity: perplexity.ai — Cavabları birbaşa internet mənbələrinə istinadla verdiyi üçün uydurma ehtimalı daha azdır.