Dabar technologijų bendrovė pateikia atvirojo kodo metodo versiją, kad kiti generatyvinio dirbtinio intelekto kūrėjai galėtų panašiai žymėti vandens ženklais savo didelių kalbos modelių rezultatus, sako Pushmeetas Kohli iš „Google DeepMind“ – bendrovės dirbtinio intelekto tyrimų grupės, jungiančios buvusias „Google Brain“ ir „DeepMind“ laboratorijas. „Nors „SynthID“ nėra „sidabrinė kulka“ dirbtinio intelekto sukurtam turiniui identifikuoti, tai yra svarbus elementas kuriant patikimesnes dirbtinio intelekto identifikavimo priemones“, – sako jis.
Nepriklausomi tyrėjai išreiškė panašų optimizmą. „Nors joks žinomas vandens ženklų metodas nėra patikimas, tikrai manau, kad tai gali padėti užfiksuoti dalį dirbtinio intelekto generuojamos dezinformacijos, akademinio sukčiavimo ir kt.“, – sako Scottas Aaronsonas iš Teksaso universiteto (JAV), anksčiau dirbęs dirbtinio intelekto saugos srityje „OpenAI“. „Tikiuosi, kad kitos didelės kalbos modelių bendrovės, įskaitant „OpenAI“ ir „Anthropic“, paseks „DeepMind“ pavyzdžiu.“, – sako jis.
Šių metų gegužę „Google DeepMind“ paskelbė, kad įdiegė savo metodą „SynthID“, skirtą dirbtinio intelekto sukurtam tekstui ir vaizdo įrašams, atitinkamai gaunamiems iš „Google“ dirbtinio intelekto paslaugų „Gemini“ ir „Veo“, žymėti vandens ženklais. Dabar bendrovė žurnale „Nature“ paskelbė straipsnį, kuriame parodoma, kad „SynthID“ apskritai pranoko panašius dirbtinio intelekto vandens ženklų kūrimo metodus, skirtus tekstui.
Lyginant buvo vertinama, kaip lengvai galima aptikti įvairių vandens ženklais pažymėtų dirbtinio intelekto modelių atsakymus. Pagal „Google DeepMind“ dirbtinio intelekto vandens ženklų metodą, kai modelis generuoja teksto seką, algoritmas subtiliai skatina jį pasirinkti tam tikrus žodžių „žetonus“, taip sukuriant statistinį parašą, kurį gali aptikti susijusi programinė įranga.
Harvardo universiteto atstovas Hanlinas Zhangas teigia, kad „ryžtingas priešininkas“, turintis didžiulę skaičiavimo galią, vis tiek galėtų pašalinti tokius dirbtinio intelekto vandens ženklus. Tačiau jis teigė, kad „SynthID“ metodas yra prasmingas, nes dirbtinio intelekto paslaugoms reikia keičiamo mastelio vandens ženklų.
„Google DeepMind“ tyrėjai išbandė dvi „SynthID“ versijas, kuriose pateikiamas kompromisas tarp to, kad vandens ženklo parašas taptų lengviau aptinkamas, ir to, kad būtų iškraipomas tekstas, kurį paprastai sukuria dirbtinio intelekto modelis. Jie parodė, kad neiškraipanti vandenženklio versija su dirbtinio intelekto parašu vis tiek veikė, per tiesioginį eksperimentą pastebimai nepaveikdama 20 milijonų „Gemini“ sugeneruotų tekstinių atsakymų kokybės.
Tačiau tyrėjai taip pat pripažino, kad vandens ženklas geriausiai tinka ilgesniems pokalbių roboto atsakymams, į kuriuos galima atsakyti įvairiais būdais – pavyzdžiui, generuojant esė ar elektroninį laišką – ir teigė, kad jis dar nebuvo išbandytas atsakymams į matematikos ar kodavimo uždavinius.
Tiek „Google DeepMind“ komanda, tiek kiti specialistai apibūdino, kad reikia papildomų apsaugos priemonių nuo netinkamo dirbtinio intelekto pokalbių robotų naudojimo – o Merilendo universiteto (JAV) mokslininkė Furong Huang taip pat rekomenduoja griežtesnį reguliavimą.
„Įstatymu įpareigojus naudoti vandens ženklus, būtų sprendžiamos ir praktinės, ir vartotojų pripratimo problemos, užtikrinant saugesnį didelių kalbos modelių naudojimą“, – sako ji.
Tyrimas paskelbtas žurnale „Nature“.
Parengta pagal „New Scientist“.