Nors dideli kalbos modeliai (angl. large language models, LLM), kuriais grindžiami tokie pokalbių robotai kaip „ChatGPT“, sukuria įspūdingai atrodančius rezultatus, ne kartą įrodyta, kad jie gali tiesiog išgalvoti faktus. Tokia dezinformacija geriausiu atveju yra trikdanti, o blogiausiu – potencialiai pavojinga, jei vartotojas ieško ko nors labai svarbaus, pavyzdžiui, medicininio patarimo.
Siekdami ištirti, kaip abejonių pareiškimai paveiks žmonių pasitikėjimą dirbtiniu intelektu, Jenn Wortman Vaughan iš „Microsoft“ ir jos kolegos pavedė 404 savanoriams susirasti atsakymus į medicininius klausimus. Jie galėjo prašyti „Microsoft“ dirbtinio intelekto „Copilot“ pagalbos arba naudotis knygomis, žmogiškaisiais šaltiniais ir internetu. Kai kuriems dalyviams buvo rodomi įprasti dirbtinio intelekto atsakymai, o kiti matė atsakymus su pridėtais neužtikrintumą pabrėžiančiais teiginiais, pavyzdžiui, „Nesu tikras, bet...“.
Dalyvių, kurie sutiko su dirbtinio intelekto rezultatais, skaičius sumažėjo nuo 81 proc. pirmojoje grupėje, kurioje nebuvo išreikšta jokių abejonių, iki 75 proc. grupėje, kurioje buvo rodomi atsakymai su abejonių išraiškomis. Tuo tarpu dalyvių galutinių rašytinių atsakymų tikslumas padidėjo nuo 64 proc. pirmoje grupėje iki 73 proc. grupėje, kurioje buvo rodomi atsakymai su išreikšta abejone – o tai rodo, kad dalyviai dėjo daugiau pastangų ieškoti informacijos kituose šaltiniuose.
Tačiau joks dabartinis dirbtinio intelekto modelis negali nustatyti, ar jo rezultatai yra faktiškai tikslūs. J. Wortman Vaughan sako, kad šiuo metu atliekama daug tyrimų, kuriais siekiama sukurti dirbtinio intelekto rezultatų patikimumo balus, tačiau šiuo metu jie yra nepatikimi.
„Vartotojams vis tiek būtų naudinga pažymėti atsakymus, kurių neapibrėžtumas yra didelis, arba apskritai nerodyti atsakymų, kurių neapibrėžtumas yra didelis“, – sako ji. – Žinoma, nerimą keltų tai, kad tada žmonės pernelyg pasitikėtų atsakymu, jei jis nebūtų pažymėtas kaip neabejotinas. Ilgalaikėje perspektyvoje įmonė turėtų būti suinteresuota didinti pasitikėjimą savo produktais, o skaidrumas gali padėti pasitikėjimą stiprinti.“
Andrew Rogoyskis iš Sario universiteto (Jungtinė Karalystė) sako, kad šiuo metu prašyti LLM išreikšti pasitikėjimą atsakymu yra „gana beprasmiška“.
Jis įspėja, kad ši idėja gali būti prasminga iš žmonių pasitikėjimo didinimo pozicijos, tačiau tai gali būti neišmintinga, nes dėl to vartotojai gali dar mažiau atsirinkti, kokiais dirbtinio intelekto rezultatais jie nusprendžia tikėti neturėdami įrodymų.
„Aš asmeniškai dabar labiau nei bet kada rekomenduočiau visiems žmonėms išmokti kritiškai vertinti bet kokį faktą, kuris jiems pateikiamas – nesvarbu, ar jis būtų gautas iš DI, ar iš socialinės žiniasklaidos, ar iš laikraščio, ar iš pokalbio užeigoje“, – sako A. Rogoyskis. – Kiekvienas iš mūsų turi žinoti, kaip trianguliuoti tiesą, kas yra patikimas šaltinis, ir puoselėti savo kritinį mąstymą. Labiau pasitikėti LLM gali būti, atvirkščiai, klaidinga kryptis.“
Tyrimas paskelbtas išankstinių publikacijų duomenų bazėje „arXiv“.
Parengta pagal „New Scientist“.