Dirbtinio intelekto atliekamos 1000 žmonių simuliacijos tiksliai atkartojo jų elgesį

2024 m. lapkričio 21 d. 11:38
Lrytas.lt
Eksperimentas, kurio metu naudojant „ChatGPT“ dirbtinio intelekto modelį buvo imituojama daugiau nei 1000 tikrų žmonių, sėkmingai ir labai tiksliai atkartojo jų unikalias mintis ir asmenybes – todėl kilo abejonių dėl tokio asmenų imitavimo etikos.
Daugiau nuotraukų (1)
Joon Sung Park iš Stenfordo universiteto JAV ir jo kolegos norėjo panaudoti generatyvines dirbtinio intelekto priemones asmenims modeliuoti, kad būtų galima prognozuoti politikos pokyčių poveikį. Istoriškai tai buvo bandoma daryti naudojant paprastesnius taisyklėmis pagrįstus statistinius modelius, tačiau jų sėkmė buvo ribota.
„Norėdami sukurti šiuos modelius, turėjome labai supaprastinti žmogaus elgesį, – pasakoja J. S. Park. – Dabar turime galimybę sukurti iš tikrųjų labai tikroviškus žmonių modelius. Galime sukurti žmogaus agentą, kuris atspindėtų daugelį jo sudėtingumo ir savitumo aspektų.“
Kad sukurtų savo dirbtinio intelekto sukurtus agentus, komanda įdarbino 1052 JAV gyventojus, reprezentuojančius visą populiaciją. Kiekvienas dalyvis dalyvavo 2 val. trukmės pokalbyje su balsu įgalinta „GPT-4o“ versija – sudėtingiausia „OpenAI“ įrankio „ChatGPT“ versija. Dirbtiniam intelektui buvo pateiktas bendras scenarijus, kurio jis turėjo laikytis, tačiau jam taip pat buvo nurodyta klausytis atsakymų realiuoju laiku ir pagal poreikį pritaikyti savo klausimus, klausinėjant dalyvių apie jų gyvenimo istoriją ir požiūrį į visuomenės problemas. Tada tyrėjai kiekvieno interviu sukurtą dirbtinio intelekto transkripciją įvedė į kitą „GPT-4o“ modulį ir paprašė modelio imituoti kiekvieną asmenį.
Komanda su kiekvienu iš šių dirbtinio intelekto agentų atliko įvairius bandymus, įskaitant ilgalaikę socialinių nuostatų apklausą, vadinamą Bendruoju socialiniu tyrimu (GSS), „didžiojo penketo“ asmenybės bruožų vertinimą, penkis elgsenos ekonominius žaidimus ir penkis socialinių mokslų eksperimentus. Pirminiai dalyviai žmonės taip pat du kartus – dviejų savaičių intervalu – atliko tuos pačius testus.
Dirbtinio intelekto agentai atidžiai sekė dalyvių atsakymus į testus. Po dviejų savaičių žmonės nepateikė identiškų atsakymų, o GSS testų rezultatai sutapo maždaug 81 proc. Savo ruožtu dirbtinio intelekto agentų bendras tikslumas, lyginant su pirmąja testavimo sesija, buvo apie 69 proc., t. y. iš esmės jie buvo 85 proc. tikslūs, atsižvelgiant į skirtingus žmonių atsakymus tarp dviejų sesijų.
Kitų testų tikslumo rodikliai buvo panašūs, nors šiek tiek mažesni.
Generatyviniai agentai taip pat 14 procentinių punktų aplenkė paprastesnius, demografiniais duomenimis pagrįstus modelius, kurie atitiko asmenų atsakymus.
„Nelabai žinojome, ko tikėjomės“, – teigia J. S. Parkas, nors jis teigia įtaręs, kad dirbtinio intelekto modeliai gali gerai atlikti šiuos testus, atsižvelgdamas į „ChatGPT“ vartotojus, kurie pastebėjo, kad dirbtinis intelektas gali intuityviai nustatyti faktus apie juos. „Tai buvo malonus mokslinis patvirtinimas“, – teigia tyrėjas.
J. S. Parkas sako, kad jo „pagrindinė motyvacija“ – suteikti politikos formuotojams geresnes priemones, kurios leistų išbandyti savo pasiūlymų poveikį labiau niuansuotai, o ne paviršutiniškai modeliuojant populiacijas. Nors kai kas gali nerimauti, kad galimybė atkartoti žmonių emocijas taps aukso kasykla rinkodaros specialistams, mokslininkas sako, kad tyrėjai gavo dalyvių etinį pritarimą, kuris riboja agentų ir su jais susijusių duomenų naudojimą „tik akademiniais tikslais“.
„Efektyvaus imituojamo žmonių elgesio galimybės išbandyti politikos poveikį yra didžiulės“, – teigia Richardas Whittle’as iš Salfordo universiteto (Jungtinė Karalystė). Jis sako, kad politikai taip pat galėtų naudoti šias priemones siekdami išbandyti skleidžiamas žinutes – nes tai būtų greitesnis ir ekonomiškesnis būdas nei dabartiniai metodai, pavyzdžiui, tikslinės grupės ar apklausos. „Galimybė išbandyti kampanijos strategiją imituotoje reprezentatyvioje grupėje būtų neįkainojama.“
Vis dėlto R. Whittle'as įspėja, kad elgtis reikia atsargiai. „Žmonių elgesys yra labai sudėtingas ir priklauso nuo konteksto, – sako jis. – Simuliuojamos grupės gali būti labai naudingos, bet jei kontekstas labai pasikeis, greičiausiai vis tiek bus pasirenkama žmogaus reakcija.“
Pasak Stafordšyro universiteto (Jungtinė Karalystė) atstovės Catherine Flick, pernelyg greitai pasikliaujant dirbtinio intelekto agentais gali kilti problemų. „Nors manau, kad tai tikrai įdomus tyrimas, manau, kad jis turi gana probleminį potencialą, – sako ji, – [agentai] niekada [nieko] nesupras, nes jie negali suprasti, ką reiškia būti bendruomenėje.“
Šis darbas taip pat kelia platesnius klausimus apie tai, ar etiška taip tiksliai imituoti atskirų žmonių elgesį. Nors nėra jokių užuominų, kad dirbtinio intelekto agentai yra gyvi ar sąmoningi, net J. S. Parkas ir komanda nori atkreipti dėmesį į tokius klausimus.
„Į etiką žiūrime labai rimtai, – teigia J. S. Parkas. Jis pabrėžia, kad bet kuris norintis dalyvis gali atšaukti savo duomenis – taigi, ir savo dirbtinio intelekto agentą – iš tyrimo arba iš kitų tyrėjų prieigos prie jų. „Tai didžiulė galimybė, tačiau mes taip pat esame labai atsargūs, kad tai nesukeltų jausmo, jog bus sukurtas blogas precedentas, kuris paveiks mūsų visuomenę tokiais būdais, kurie, kaip minėta, yra bauginantys ar nesuteikiantys galimybių asmenims.“
Parengta pagal „New Scientist“.

UAB „Lrytas“,
A. Goštauto g. 12A, LT-01108, Vilnius.

Įm. kodas: 300781534
Įregistruota LR įmonių registre, registro tvarkytojas:
Valstybės įmonė Registrų centras

lrytas.lt redakcija news@lrytas.lt
Pranešimai apie techninius nesklandumus pagalba@lrytas.lt

Atsisiųskite mobiliąją lrytas.lt programėlę

Apple App StoreGoogle Play Store

Sekite mus:

Visos teisės saugomos. © 2024 UAB „Lrytas“. Kopijuoti, dauginti, platinti galima tik gavus raštišką UAB „Lrytas“ sutikimą.