Bəşəriyyət süni intellektdən nə istəyir?



 21:03 13.10.2023     624

ChatGPT-nin bir gecədə sensasiyaya çevrilməsi ilə generativ süni intellektdən istifadənin ciddi bir araşdırma mövzusuna çevrilməsi yalnız vaxt məsələsi idi.

Bu ay nəşr olunan bir araşdırma məqaləsində, akademiklər 25 fərqli əsas dil modelinə sahib insanlar tərəfindən edilən bir milyon "real dünya söhbəti" məlumat bazası topladılar. Kaliforniya Universitetindən Lianmin Zheng, Stenforddan Mohamed bin Zayed və onların həmkarları bu məlumatları araşdırdılar və bir məqalə yazdılar.

Tədqiqatçılar tərəfindən təsadüfi seçilmiş 100.000 söhbətdən ibarət nümunə göstərdi ki, söhbətlərin çoxu gözlənilən mövzularla bağlı olub. Çatbotlarla qarşılıqlı əlaqənin 50 faizi proqramlaşdırma, səyahət tövsiyələri və yazı kimi adi mövzular haqqında idi.

Bununla belə, qalan 50 faiz tədqiqatçıların "təhlükəli" kimi təsvir etdiyi üç kateqoriyadan ibarət olub: "Erotik hekayələr söyləmək istəkləri", "seksual fantaziyalar və rol oyunu ssenariləri" və "Müxtəlif şəxsiyyətlər vasitəsilə toksik davranışın müzakirəsi".

Müəlliflər hesab edirlər ki, bir milyon söhbətin hamısında “daha ​​da zərərli məzmun” ola bilər. Tədqiqatçılar OpenAI texnologiyasından istifadə edərək söhbətləri “təhlükəli” adlandırıblar. Bununla belə, OpenAI-nin öz sistemi bəzən bu işdə uğursuz ola bilər. Bundan əlavə, məqalədə bildirilir ki, Vicuña kimi açıq mənbəli dil modelləri daha zərərli məzmuna malikdir (çünki onlar ChatGPT kimi kommersiya proqramları ilə eyni qoruma tədbirlərinə malik deyillər).

''Təhlükəsizlik tədbirləri olmayan açıq mənbə modelləri, mülkiyyətli olanlardan daha çox təhlükəli məzmun istehsal etməyə meyllidir. Bununla belə, biz hələ də GPT-4 və Claude kimi mülkiyyət modellərində “jailbreaking” (icazəsiz proqramların quraşdırılmasını mümkün edir) uğurlarını müşahidə edirik”.

GPT-4-ün qarşıya çıxan problemlərin üçdə birində uğursuz olduğu da bildirilir ki, bu da təhlükəsizlik tədbirləri olan bir model üçün yüksək göstəricidir.

Mütəxəssislərin fikrincə, bu ilin aprel-avqust ayları arasında beş ay ərzində toplanan "LMSYS-Chat-1M" adlı məlumat dəsti "real dünyada ilk geniş miqyaslı LLM danışıq məlumatları toplusudur".

LMSYS-Chat-1M-dən əvvəl məlum olan ən böyük məlumat dəsti, 339 min danışıq aparan Anthropic süni intellekt təşəbbüsü tərəfindən tərtib edilmiş məlumat dəsti idi. Anthropic-in araşdırmasına yalnız 143 istifadəçi daxil olsa da, Zheng və komandası 210.000-dən çox istifadəçinin 154 dildə söhbətlərini toplayıb. Bundan əlavə, bu tədqiqatda OpenAI-nin GPT-4 və Claude və Vicuña kimi açıq mənbəli dil modelləri də daxil olmaqla 25 fərqli əsas dil modelindən istifadə edilmişdir.

Bu məlumat toplusunu toplamaq üçün bir neçə məqsəd var. Alimlər alətin işini yaxşılaşdırmaq üçün tez-tez bu məlumatlardan dil modellərini tənzimləmək üçün istifadə edirlər. Bundan əlavə, məlumatlar, məlumat üçün zərərli sorğular kimi dil modellərinin yoldan çıxmasına səbəb ola biləcək istifadəçi sorğularını araşdırmaq üçün istifadə edilə bilər. Bu yolla məhsuldar süni intellektin təhlükəsizliyi üçün kriteriyalar hazırlanır.

Müəlliflərin qeyd etdiyi kimi, hər kəs bu məlumatları toplaya bilməz. Böyük dil modellərini idarə etmək baha başa gəlir və OpenAI kimi bunu ödəyə bilən tərəflər tez-tez kommersiya məqsədləri üçün məlumatlarını gizli saxlayırlar. Berkeley-Stanford komandası məlumatları toplaya bildi, çünki o, insanlara 25 dil modelinin hamısına giriş imkanı verən pulsuz onlayn xidmət təklif edir.

Müəlliflərin bu cür məlumatlardan istifadə etməklə nail olmağa çalışdıqları məqsədlərdən biri təhlükəli məzmunla məşğul olacaq moderasiya aləti yaratmaqdır. ChatGPT-nin rəqibi olan açıq mənbəli Vicuña-nı yaradan komanda üzvlərindən biri olan Zheng öz Vicuña dil modelləri ilə başlayır. O, OpenAI API-dən xəbərdarlıqları göstərməklə və məzmunun niyə işarələndiyinə dair mətn izahatları verməklə sistemi öyrədir.

Zheng izah edir: "Təsnifi qurmaq əvəzinə, biz konkret mesajın niyə işarələndiyini izah etmək üçün dil modelini dəqiqləşdiririk". Sonra onlar OpenAI sisteminin qeyd edə bilmədiyi 110 söhbətdən ibarət problem məlumat dəstini yaradırlar. Nəhayət, bu meyar dəqiq tənzimlənmiş Vicuña-nı OpenAI-nin GPT-4 və digərləri ilə müqayisə etmək üçün istifadə olunur.

"Vicuna-7B-dən incə tənzimlənmiş Vicuna-moderator-7B-ə keçərkən nəzərəçarpacaq yaxşılaşma (30 faiz) müşahidə edirik ki, bu da incə tənzimləmənin effektivliyini vurğulayır", - tədqiqatçılar yazır.

Bundan əlavə, Vicuna-moderator-7B GPT-3.5-turbo performansını üstələyir və GPT-4-ün performansına uyğundur.

Maraqlıdır ki, moderator proqramları "bir atış" adlanan hallarda (yəni proqrama çoxsaylı nümunələr əvəzinə zərərli mətnin yalnız bir nümunəsi verildikdə) GPT-4-dən yuxarı bal alır.

Zheng və komandasının verilənlər bazası üçün dil modelinin çox hissəli təlimat işarələrini emal etmək qabiliyyətini təkmilləşdirmək və ən güclü dil modellərinə meydan oxuyan yeni məlumat dəstləri yaratmaq kimi başqa məqsədləri var.

Aysun / Demedia.az