Sualların 52 faizinə səhv cavab verir...
OpenAI-nin ChatGPT kimi süni intellekt chatbotları işçilərə işdə daha məhsuldar olmağa kömək edə biləcək, bəlkə də gələcəkdə insanları tamamilə əvəz edə biləcək inqilabi vasitələr kimi təqdim edilir.
Demedia.az xəbər verir ki, ancaq təəccüblü yeni bir araşdırma, ChatGPT-nin kompüter proqramlaşdırma suallarına zamanın 52 faizində səhv cavab verdiyini tapdı.
Purdue Universitetində keçirilən və bu ayın əvvəlində Havayda keçirilən Kompüter-İnsan Qarşılıqlı Əlaqələr Konfransında təqdim edilən araşdırma *Stack Overflow üzrə 517 proqramlaşdırma sualını araşdırıb və ChatGPT-yə göndərilib.
Stack Overflow dünyanın bütün səviyyələrindən tərtibatçıların və proqramçıların bir araya gəldiyi sual-cavab platformasıdır. Hər ay 100 milyondan çox ziyarətçi qəbul edən pulsuz, ictimai platforma 2008-ci ildə Jeff Atwood və Joel Spolsky tərəfindən təsis edilib.
Qiymətləndirmədə, “Təhlillərimiz göstərir ki, ChatGPT cavablarının 52 faizində dezinformasiya, 77 faizində isə ətraflı məlumat var. Bununla belə, istifadəçi tədqiqatı iştirakçılarının 35 faizi hərtərəfli və yaxşı ifadə edilmiş dil üslubuna görə hələ də ChatGPT cavablarına üstünlük verir.
Demək olar ki, 10 nəfərdən 4-ü səhvi görmədi!
Araşdırmada zövqümüzü bir az da korlayacaq bir məqam da var. Tədqiqatda iştirak edən proqramçılar həmişə süni intellekt chatbotunun yaratdığı səhvləri aşkar edə bilməyiblər:
Lakin onlar ChatGPT-nin cavablarında 39 faiz səhv məlumatı qaçırdılar. Bu, həmçinin ChatGPT-nin proqramlaşdırma suallarına cavablarında dezinformasiyanın qarşısının alınması və "doğru görünən" yanlış cavabların riskləri barədə məlumatlılığın artırılması ehtiyacını vurğulayır.
İnternetdə oxuna bilən bu araşdırma bu vasitələrdən istifadə edən hər kəsi maraqlandıra biləcək məsələlərə işarə edir. Böyük texnoloji şirkətlər ən etibarlı chatbotları təqdim etmək üçün hazırda süni intellektə milyardlarla dollar xərcləyirlər. Meta, Microsoft və Google internetlə əlaqələrimizi kökündən dəyişdirmək potensialına malik olan inkişaf etməkdə olan bir sahəyə hakim olmaq üçün yarışır.
Bu problemlərdən ən vacibi odur ki, süni intellekt çox vaxt etibarsız olur, xüsusən də konkret istifadəçi həqiqətən unikal sual verdikdə. Google-un yeni süni intellektlə işləyən axtarış funksiyası cavab olaraq istifadəçilərə tez-tez etibarsız mənbələrdən alınan zibilləri atır! Əslində, bu həftə Google-un süni intellektlə işləyən axtarış sisteminin The Onion-dan (Türkiyənin Zaytungunun əcdadı kimi görünə bilən yumoristik saxta xəbər saytı) satirik məqalələri dəfələrlə etibarlı məlumat kimi təqdim etdiyi üzə çıxdı.
Sizi maraqlandıra bilər: AI döyüşləri və avtoqol vuran iki nəhəng!
Bununla belə, Google yanlış cavabların anomaliya və ya hətta “istisna” olduğunu təkid edir.
"Gördüyümüz nümunələr ümumiyyətlə çox nadir sorğulardır və insanların əksəriyyətinin təcrübələrini əks etdirmir" dedi Google nümayəndəsi Gizmodo-ya. "AI Baxışlarının böyük əksəriyyəti internetə daha dərindən daxil olmaq üçün bağlantılarla yüksək keyfiyyətli məlumat təqdim edir" dedi.
Amma etiraf etmək lazımdır ki, “qeyri-adi suallar”ın yanlış cavablara səbəb olmasının müdafiəsi olduqca gülüncdür. İstifadəçilər yalnız bu chatbotlara ən sadə sualları verməlidirlər?! Bu vəd edilmiş inqilabi vasitələrin məhz belə olduğunu qəbul etməliyikmi? Hər halda... OpenAI sözügedən araşdırma ilə bağlı hələ açıqlama verməyib. Ümid edirik ki, başqa bir gülünc cavabla qarşılaşmayacağıq.
Redaktorun qeydi: Tədqiqat mətnində istifadə olunan “müxtəlif” termini ingilis dilində “verbalizm” mənasını verir və eyni zamanda vəziyyəti “lazımdan çox sözlə” ifadə etmək deməkdir. Proqram dünyasında da istifadə edilən bu ifadə ümumiyyətlə bir neçə sətir kodla edilə bilən bir işin başqa bir dildə çox daha çox kodla edilə biləcəyi mənasına gəlir. Bundan əlavə, "müxtəlif" rejimdə, bu da bir səhv tutma/debugging üsuludur, proqram çox əhatəli nəticələr verir.
Aysun / Demedia.az