Süni intellektin (Yapay zeka) qərarvermə proseslərinə daxil olması hüquq dünyasında „məsuliyyət boşluğu“ (sorumluluk boşluğu) adlanan mürəkkəb (karmaşık) bir problem yaradıb. Əgər süni intellektlə idarə olunan sürücüsüz avtomobil qəza törədərsə və ya bir tibbi süni intellekt tətbiqi (uygulama) yanlış diaqnoz qoyarsa, buna görə kim cavabdehlik daşıyır? Bu sualın cavabı hələ tam formalaşmasa da, hazırda hüquq sistemləri məsuliyyəti bir neçə tərəf arasında bölüşdürməyə çalışır.
Birinci tərəf proqram təminatçıları və inkişaf etdiricilərdir. Əgər süni intellektin səhvi onun kodlaşdırılmasındakı qüsurlardan və ya alqoritmin (algoritma) qeyri-kafi təlimindən qaynaqlanırsa, məsuliyyət birbaşa texnologiya şirkətinin üzərinə düşür. Bu, bir növ zavod qüsuru olan avtomobil istehsalçısının məsuliyyətinə bənzəyir. Lakin yaradıcı süni intellekt modelləri bəzən öz yaradıcılarının belə təxmin edə bilmədiyi nəticələr („qara qutu“ effekti) verdiyi üçün şirkətləri hər bir səhvə görə günahlandırmaq hüquqi baxımdan çətinləşir.
İkinci tərəf isə son istifadəçidir (son kullanıcı). App Store və ya Play Store-dan yüklədiyiniz (indirdiğiniz) bir çox süni intellekt tətbiqinin istifadəçi müqaviləsində (kullanım sözleşmesi) qeyd olunur ki, «bu alət yalnız köməkçi xarakter daşıyır və son qərar istifadəçiyə məxsusdur». Məsələn, bir hüquqşünas süni intellektin hazırladığı yanlış məlumatlı sənədi yoxlamadan məhkəməyə təqdim edərsə, səhvə görə süni intellekt deyil, peşəkar diqqətsizliyinə görə həmin şəxs cavabdehdir. Azərbaycanda da rəqəmsal (dijital) xidmətlərdən istifadə edərkən yerli qanunvericilik çərçivəsində «insan nəzarəti» (human-in-the-loop) prinsipi əsas götürülür.
Nəhayət, bəzi hüquqşünaslar süni intellektin gələcəkdə „elektron şəxs“ (elektronik kişilik) statusu almasını təklif edirlər. Bu halda süni intellekt sistemləri üçün xüsusi sığorta fondları yaradıla bilər ki, baş verən zərərlər oradan qarşılansın. Lakin hazırda əsas qayda budur: süni intellekt bir alətdir və alətin törətdiyi fəsadlara görə ya onu hazırlayan, ya da onu düzgün idarə etməyən insan məsuliyyət daşıyır. Yerli internet paketləri vasitəsilə sürətlə yayılan rəqəmsal (dijital) xidmətlər dövründə, istifadəçilər „mən bilmirdim, robot etdi“ bəhanəsinin hüquqi çəkisinin olmadığını unutmamalıdırlar.
Müəllifin fikri: Süni intellekt qərarları sürətləndirə bilər, lakin vicdan və məsuliyyət hər zaman insana məxsus bir yük olaraq qalacaqdır.
Praktik tapşırıq: İstifadə etdiyiniz süni intellekt tətbiqinin (məsələn, ChatGPT) „Terms of Service“ (Xidmət şərtləri) hissəsinə daxil olun. „Limitation of Liability“ (Məsuliyyətin məhdudlaşdırılması) bölməsini tapın və şirkətin yanlış cavablar qarşısında özünü necə sığortaladığını oxuyun.