Böyük Dil Modelləri həmişə doğru cavab vermir – Mütəxəssis izah edir
Bakı, 10 fevral, Pərvanə Qafarova, AZƏRTAC
Böyük Dil Modelləri bəzən səhv cavablar da verir və bu təsadüfi deyil. Bu, Böyük Dil Modellərinin (LLM) təbiətindən irəli gəlir.
Bu barədə AZƏRTAC-a müsahibəsində “Samsung Electronics”də mobil təhlükəsizlik və süni intellekt həlləri üzrə proqram təminatı mühəndisi Adil Əliyev deyib.
Adil Əliyev qeyd edib ki, süni intellekt ümumi bir anlayışdır və maşınların düşünüb qərarlar qəbul etməsi ilə bağlı bir sahədir: “Böyük Dil Modelləri (LLM) süni intellekt alətlərindən yalnız biridir. Lakin günümüzdə istifadəçilərin ən çox istifadə etdiyi sistemlərdən biri olduğu üçün çox adam süni intellekt dedikdə məhz Böyük Dil Modellərini nəzərdə tutur. Bunlara “ChatGPT”, “Gemini”, “DeepSeek”, “Grok” və s. kimi sistemlər də aiddir. Əslində isə süni intellekt daha geniş anlayışdır: “Netflix”in film tövsiyə etməsindən tutmuş “iPhone”un üz tanıma ilə kilid açmasına, sənaye sistemlərinə, qara dəliyin şəkillərinin əldə edilməsi üçün bir sıra riyazi üsullara qədər çox şeyi əhatə edir.
Biz “ChatGPT”yə bir sual verdikdə bəzən onun cavabları yalan ola bilir və bu, ondan istifadə edən hər kəsi çaşdırır. Bununla belə onun cavabları olduqca inandırıcı görünür. Bəzən onun yalan məlumat yazdığını dərhal başa düşə bilirik, bəzən isə cavabın yalan olduğunu anlamaq olduqca çətin olur. “ChatGPT” xüsusilə ingilisdilli dialoqlarda peşəkar mütəxəssis kimi danışır və fikirləri əminliklə, sərrast, axıcı, peşəkarcasına təqdim edir. İnsanlar əksər hallarda məlumatı məzmunundan çox, onun necə təqdim olunmasına görə qiymətləndirirlər: inamlı ton, axıcı dil, səlis izah. LLM bu məsələdə çox güclüdür – hətta verilən suala aid məlumat natamam, köhnə və ya səhv olduqda belə inandırıcı mətn yarada bilirlər.
Burada güclü psixoloji amil də var. Bir çoxumuz yəqin ki, bir mövzunu dərindən bilmədiyi halda çox inamla danışan bir tələbə yoldaşı və ya iş yoldaşı ilə rastlaşmışıq. Belə insanlar mövzunu bilməsələr belə o qədər yüksək özgüvənə sahib olurlar, o qədər əminliklə danışırlar ki, bəzən onları dinlədikdə öz bildiyimiz həqiqi informasiyaya qarşı tərəddüd etməyə başlayırıq. LLM də oxşar davranır, o qədər sərrast və güvənlə izah edir ki, sanki dedikləri hamısı həqiqətdir.

Çaşqınlığın başqa bir səbəbi isə insanların, “ChatGPT” kimi alətlərdən axtarış sistemi kimi istifadə etməsidir. Amma “ChatGPT” axtarış sistemi deyil. Axtarış sistemi məlumatı tapır və mənbələri göstərir; Böyük Dil Modeli isə mətn yaradır. Axtarış sistemi “kitabxanaçı” kimidir: siz kitab istəyirsiniz, o da tapıb verir. LLM isə çox kitab oxumuş və indi sizə istədiyiniz mövzu barədə nəyisə nağıl edən biri kimidir. Nəyisə nağıl edərkən kontekstə uyğun uydurmalar da edə bilir.
Hətta LLM alətləri axtarış sistemlərinə müraciət edib cavabı axtarış nəticəsindən aldıqda belə, istifadəçiyə təqdim olunan cavab yenə də generasiya edilmiş mətndir. Kontekst dəqiq olduqda cavab doğru ola bilər, amma bu, yenə də dəqiqlik yox, ehtimal məsələsidir”, - deyə Adil Əliyev qeyd edib.
Mütəxəssis qeyd edib ki, bu məqamları daha yaxşı anlamaq üçün LLM-lərin necə işlədiyinə qısa nəzər salmaq faydalı olar deyə düşünürəm. Çünki əksər insanlar Böyük Dil Modellərini faktları saxlayan və lazım olanda cavabı öz bilik bazasından çıxaran bir sistem kimi təsəvvür edir. Reallıqda isə bu, belə deyil. İstər “ChatGPT”, istər “Gemini” və ya hər hansı bir digər Böyük Dil Modeli nəhəng mətn korpusları üzərində öyrədilib: kitablar, məqalələr, veb-saytlar, dialoqlar. Bu prosesdə onlar “həqiqəti” yox, dilin statistik nümunələrini öyrənirlər:
“Bu mətnlər LLM-ə verilməzdən əvvəl müəyyən hissələrə bölünür. Bu hissələr token adlanır. Tam olaraq söz olmasalar da, tokenləri sözlər, söz hissələri və ya birləşdirici elementlər kimi düşünmək olar. Sonra sözlər “embedding” adlanan riyazi təsvirlərə çevrilir (sözləri semantik-məna bənzərliyi və sintaktik bənzərlik baxımından vektor formatda göstərmək üçün istifadə edilən metoddur – red.). Bu təsvirlər sözləri çoxölçülü fəzada vektorlar kimi yerləşdirir. Daha sonra riyazi düsturlarla həmin vektorlar arasında məsafəni ölçmək mümkün olur. İki vektor məsafəcə bir-birinə yaxındırsa deməli, o vektorların ifadə etdikləri sözlər də bir-birinə yaxındır. Bu ideya əslində yeni deyil, “Google” axtarış sistemi bu üsulu hətta LLM-lər olmadan əvvəl də istifadə edirdi. Məsələn, axtarış sistemində “Azərbaycan musiqisi” axtaranda çox vaxt “xalq mahnıları” ilə bağlı nəticələr də çıxır. Burada “musiqi” və “mahnı” sözləri sintaktik olaraq tamamilə fərqlidirlər. Amma mənaca çox yaxındırlar. Milyonlarla mətn daxilində oxşar kontekstlərdə işlədiliblər. Süni intellekt bu əlaqəni bir anlayış kimi yox, rəqəmsal verilənlər vasitəsilə öyrənir.
Beləliklə siz süni intellektdə sual verəndə o, cavabı “axtarmır”. O, sizin daxil etdiyiniz mətni də “embedding” üsulu ilə vektorlaşdırır və o vektorlara ən yaxın olanları ehtimallar əsasında tapır. O, ehtimalı ən böyük növbəti sözü, sonra ondan sonrakını, sonra daha sonrakını proqnozlaşdırır. “ChatGPT”nin sözləri bir-bir tədricən görünməsinin səbəbi də budur. Bizə düşünmə kimi görünən proses əslində ehtimala əsaslanan ardıcıllıq proqnozudur”, - deyə A.Əliyev əlavə edib.
Ekspertin sözlərinə görə, bu yanaşma “Google” tədqiqatçılarının 2017-ci ildə dərc etdikləri “Attention Is All You Need” adlı məşhur elmi məqalədən sonra geniş yayılmağa başladı. Məhz həmin elmi iş bugünkü dil modellərinin əsasını təşkil edən “Transformer” arxitekturasını təqdim edib. Qeyd edək ki, “ChatGPT”dəki “T” hərfi “Transformer” mənasını verir. Bu texnologiya sözlər arasındakı əlaqəni anlamağa imkan verdi: “Nəticə etibarilə, böyük dil modelləri həqiqəti demir, sadəcə bir sözdən sonra növbəti sözün nə olduğunu ehtimal əsasında müəyyən edərək mətn yaradır. Daha çox kontekst və daha yaxşı sorğular düzgün cavab ehtimalını artırır, amma süni intellekti həqiqət mənbəyinə çevirmir. Modellər nə qədər təkmilləşirsə, bir o qədər yaxşı və inamlı səslənirlər və məhz buna görə onların məhdudiyyətlərini anlamaq getdikcə daha vacib olur.
LLM-lər, məsələn “ChatGPT”, “Gemini” və digər sistemlər, geniş mətn korpusları üzərində öyrədilərək insan dilinin statistik nümunələrini öyrənir, amma həmişə faktları yadda saxlamır. “İstifadəçi sual verdikdə model cavabı “axtarmır”, o, növbəti sözün ehtimalını hesablayaraq mətn yaradır. Buna görə cavablar inandırıcı görünə bilər, amma həmişə doğru olmur”, – deyə A.Əliyev qeyd edib.
Mütəxəssis vurğulayıb ki, LLM-lərin inandırıcı görünməsinin səbəbi onların dilin axıcılığı, peşəkar ton və kontekstə uyğun təqdimat qabiliyyətidir. İnsanlar çox vaxt məlumatın məzmunundan yox, təqdimatından təsirlənir. “Süni intellekt heç vaxt tam həqiqət mənbəyi deyil. Daha düzgün cavablar üçün sorğuların dəqiqliyi və kontekst vacibdir”, – deyə A.Əliyev əlavə edib.
Ekspert, həmçinin aydınlaşdırıb ki, LLM-lər axtarış sistemləri kimi işləmirlər. “Axtarış sistemi kitabxanaçı kimidir – siz soruşduğunuz məlumatı tapıb təqdim edir. Böyük dil modeli isə oxuduğu materiallar əsasında ehtimallara əsaslanan cavab yaradır. Bu səbəbdən süni intellekt alətləri həmişə insan baxışına və mənbələrin yoxlanmasına ehtiyac duyur”, – deyə Adil Əliyev bildirib.
A.Əliyev qeyd edib ki, bu texnologiyanın inkişafı istifadəçilər üçün faydalı olsa da, məhdudiyyətlərini anlamaq getdikcə vacib olur: “Model nə qədər təkmilləşirsə, cavabları bir o qədər inandırıcı olur, lakin həqiqət mənbəyi kimi qəbul edilməməlidir”.