Crestonas Brooksas iš Prinstono universiteto ir jo kolegos domėjosi neseniai įdiegtų dirbtinio intelekto sistemų, vadinamų didžiaisiais kalbos modeliais, pasekmėmis ir kaip jos gali paveikti informacijos šaltinius.
Norėdami sužinoti daugiau, jie pirmiausia DI aptikimo įrankiais „Binoculars“ ir „GPTZero“ patikrino daugiau kaip 14 000 „Wikipedia“ puslapių, paskelbtų anglų, prancūzų, vokiečių ar italų kalbomis iki 2022 m. kovo – t. y. aštuonis mėnesius iki „ChatGPT“ išleidimo.
Įrankiai pažymėjo, kad mažiau nei 1 proc. šių puslapių yra su dirbtiniu intelektu sukurtu turiniu. Tikrasis skaičius tikriausiai yra artimesnis 0 proc., nes „ChatGPT“ dar nebuvo įdiegta, sako C. Brooksas. „Neabejotina, kad bet kuri atskira priemonė turės klaidingų teigiamų rezultatų“, – paaiškina mokslininkas.
Toliau įrankiai buvo naudojami tiriant beveik 13 000 „Vikipedijos“ puslapių, sukurtų 2024 m. rugpjūtį – ir tyrimas parodė, kad 4,36 proc. anglų kalba paskelbtų puslapių buvo su dirbtiniu intelektu sukurtu turiniu. Prancūzų, vokiečių ir italų kalbomis parašytuose puslapiuose šie rodikliai paprastai buvo mažesni.
„Man tai nekelia nuostabos, nes tai vyksta beveik visoje visuomenėje, – sako tyrėjų komandos narys Denisas Peskoffas, taip pat dirbantis Prinstono universitete. – „Vikipedija“ [kaip žinių šaltinis] ypač svarbi vien dėl to, kad ji naudojama kiekviename dideliame kalbos modelyje, kaip mokymo duomenys.“
Tyrėjai nenustatė atskirų puslapių, kuriuose, jų manymu, buvo dirbtiniu intelektu sukurtas turinys, tačiau C. Brooksas sako, kad nemažai atvejų, kai juo naudojosi smulkaus verslo savininkai, sukūrę puslapius apie save ir savo įmones.
Jie taip pat mano, kad Anglijoje esančio dvaro savininkas, norėjęs parduoti savo turtą, sukūrė „Vikipedijos“ puslapį, kad sustiprintų jo svarbą. Kiti dirbtinio intelekto naudojimo pavyzdžiai buvo politiškai motyvuoti arba skirti puslapiams versti iš vienos kalbos į kitą, teigia C. Brooksas.
D. Peskoffas sako, kad dirbtinio intelekto naudojimas „Vikipedijoje“ gali būti problemiškas, jei nebus kontroliuojamas – visų pirma dėl jo nepatikimumo. „Tai yra kažkas, kas gali labai greitai išsiplėsti, – sako jis. – Dabar tai sudaro 5 proc., bet nežinia, kur tai bus po dvejų metų“.
Catherine Flick iš Stafordšyro universiteto Jungtinėje Karalystėje sako, kad tyrėjų naudotos priemonės nėra neklystančios, tačiau jos yra geriausios, kokias turime tokio turinio aptikimui.
Ji teigia, kad „Vikipedija“, kurią stebi redaktoriai, tikriausiai vis geriau šalins dirbtiniu intelektu sukurtą turinį.
„Įtariu, kad „Vikipedija“ taps vienu iš nedaugelio žmogaus sukurtos informacijos bastionų, priešingai nei kitos pusiau moderuojamos erdvės, kurias sparčiai užpildo dirbtiniu intelektu sukurta informacija, – sako ji. – Ypatinga „Vikipedijos“ redaktorių-moderatorių kultūra puikiai tinka kovoti su dirbtiniu intelektu generuojamu turiniu, ir aš juos už tai sveikinu.“
„Vikimedijos“ fondo, kuriam priklauso „Vikipedija“, atstovas sako, kad šis tyrimas turi tam tikrų trūkumų – pavyzdžiui, naudotos priemonės nebuvo apmokytos aptikti konkrečiai „Vikipedijoje“ esantį dirbtiniu intelektu sukurtą turinį, o „Vikipedijos“ svetainėse visame pasaulyje taikoma skirtinga dirbtinio intelekto politika.
„Angliškoji „Vikipedijos“ bendruomenė nėra uždraudusi naudoti dirbtinį intelektą, jei jis yra tinkamai patikrintas ir atitinka Vikipedijos turinio politiką, – sako fondo atstovas spaudai. – Kitų kalbų bendruomenės, į kurias atsižvelgta tyrime, galėjo priimti kitokius sprendimus, ir šie sprendimai turės įtakos rezultatų interpretacijai.“
Tyrimas paskelbtas „arXiv“.
Parengta pagal „New Scientist“.