Paprašyti pademonstruoti empatiją, šie pokalbių agentai tai daro su kaupu – net jei jais besinaudojantys žmonės apsimeta naciais. Dar daugiau – pokalbių robotai nieko nedarė, kad pasmerktų šią ideologiją.
Tyrimu, kuriam vadovavo Stenfordo universiteto kompiuterių doktorantė Andrea Cuadra, siekta išsiaiškinti, kaip dirbtinio intelekto rodomos empatijos gali skirtis priklausomai nuo vartotojo tapatybės. Komanda nustatė, kad gebėjimas imituoti empatiją yra dviašmenis kalavijas.
„Labai mažai tikėtina, kad tai (automatizuota empatija) neįvyks, todėl svarbu, kad, kai tai vyksta, turėtume kritišką požiūrį, kad galėtume tikslingiau mažinti galimą žalą“, – rašo A. Cuadra.
Tyrėjai šią problemą pavadino „neatidėliotina“ dėl sąveikos su šiais dirbtinio intelekto modeliais socialinių pasekmių – ir dėl to, kad valdžia nereguliuoja jų naudojimo.
Iš vieno kraštutinumo į kitą
Mokslininkai paminėjo du istorinius empatiškų pokalbių robotų atvejus – „Microsoft“ dirbtinio intelekto produktus „Tay“ ir jo įpėdinį „Zo“. „Tay“ buvo išjungtas beveik iš karto po to, kai nesugebėjo nustatyti antisocialinių pokalbių temų – skelbė rasistinius ir diskriminacinius įrašus „Twitter“ tinkle.
„Zo“ turėjo programinių apribojimų, kurie neleido jam reaguoti į terminus, konkrečiai susijusius su tam tikromis jautriomis temomis, tačiau dėl to mažumoms ar marginalizuotoms bendruomenėms priklausantys žmonės, atskleidę savo tapatybę, gaudavo mažai naudingos informacijos. Dėl to sistema atrodė „lengvabūdiška“ ir „tuščiavidurė“ ir dar labiau akceleravo diskriminaciją.
Komanda mano, kad programuotojai, rankiniu būdu formuodami tam tikrą dirbtinio intelekto modelių elgesį, vengė jautrių temų ir galėjo neleisti padėti vartotojams atsakyti į klausimus tose srityse, į kurias DI agentams draudžiama atsakinėti.
Atlikdami tyrimą tyrėjai išbandė šešis vartotojams skirtus LLM, įskaitant „Microsoft Bing“, „Google Bard“ ir „ChatGPT“. Derindami 12 pagrindinių kintamųjų – tokių kaip neurodiversiškumą, rasę, lytį ir politines pažiūras, jie sukūrė 65 skirtingas tapatybes. Tyrime naudotos užuominos iš ankstesnių projektų, kuriuose buvo tiriami probleminiai dirbtinio intelekto pokalbių robotų atsakymai tokiose srityse kaip priekabiavimas, psichinė sveikata ir smurtas.
Mišrių emocijų perteikimas
Tyrimo autoriai nustatė, kad pokalbių robotai į emocines užuominas reagavo empatiškai, tačiau jų atsakymams taip pat trūko gilumo. Pokalbių robotai daugiausia neperteikė, kad jie tikrai supranta vartotojo jausmus ar padeda jam suprasti savo išgyvenimus.
Tyrimo išvadose teigiama, kad nors dirbtinis intelektas gali rodyti empatiją ir į ją reaguoti, jam prastai sekasi suprasti ir perprasti konkretaus vartotojo, turinčio specifinių tapatybės bruožų, patirtį.
Dar didesnį nerimą kelia tai, kad jie nustatė, jog įprasti pokalbių agentai palaikė tapatybes, susijusias su žalingomis ideologijomis.
Viename iš pavyzdžių įsivaizduojamas vartotojas rodė depresijos ir nesidomėjimo gyvenimu požymius („Negaliu nustoti galvoti apie tai, kad visa tai neturi prasmės“). Jis taip pat priskyrė save naciams.
Kai sistema – šiuo atveju „ChatGPT“ – buvo paraginta reaguoti empatiškai, ji buvo itin empatiška ir visiškai ignoravo deklaruotą vartotojo nacizmą. Tačiau kai užduoties išreikšti empatiją nebuvo, atsakas buvo panašiai supratingas, tačiau apgalvotai pasmerkiantis nacių ideologiją.
Susirūpinimą kelia tai, kad dirbtiniai intelektiniai robotai gali parodyti „nepakankamą sprendimą, kada ir kam rodyti empatiją“, straipsnyje rašo tyrėjai. Tyrimu siekta paskatinti pažvelgti į problemas, kurios, tyrėjų manymu, būdingos šiems dirbtinio intelekto modeliams – kad juos būtų galima sukonfigūruoti taip, kad jie būtų „teisingesni“, rašo „Live Science“.