Netikri naujienų vedėjai
Be didėjančio susirūpinimo, kad dirbtinio intelekto sukurtas menas kelia grėsmę žmonių menui ir patiems menininkams, giluminės klastotės taip pat gali būti naudojamos kaip organizacijų ir valstybių ruporai.
Neseniai per valstybinę Venesuelos televiziją buvo transliuojami keistoki šalies politiką remiantys vaizdo įrašai, kuriuos parengė, regis, angliškai kalbantys amerikiečiai.
Pirmą kartą šie vaizdo įrašai pasirodė „YouTube“ kanale, pavadintame „House of News Español“. Viename iš jų rodomas šviesiaplaukis baltaodis vyras, kalbantis amerikiečių anglų kalba. Klipas buvo pavadintas „Venesuela ir jos ekonomika, mitas ar tikrovė?“.
Tačiau tariamas žurnalistas ekrane yra „Nojus“ – vienas iš dešimčių dirbtinio intelekto avatarų, kuriuos sukūrė bendrovė „Synthesia“ ir kurie vos už 30 eurų per mėnesį sakys viską, ko tik pirkėjas panorės. Panašūs vaizdo įrašai, neseniai sukurti naudojant „Synthesia“ programinę įrangą, per pastarąjį mėnesį taip pat buvo naudojami propagandai Afrikoje ir Azijoje.
Kaip veikia giluminės klastotės?
Giluminių klastočių pavadinimas kilo nuo joms kurti naudojamos technologijos – giluminio mokymosi (angl. deep learning) neuroninių tinklų. Šie algoritmai, paleisti į duomenų rinkinį, išmoksta modelius ir gali juos atkartoti naujais bei įtikinamais būdais.
Nors ši technologija gali būti naudojama pramogai, ji taip pat turi tamsų potencialą, keliantį socialinį ir etinį susirūpinimą.
Skirtingai nuo paprastų propagandinių istorijų ar memų, kurie mažai kuo skiriasi nuo nacistinės Vokietijos naudotų propagandos metodų ir komunistinės Rusijos nuotraukų redagavimo būdų, giluminės klastotės pasižymi dideliu tikroviškumu. Jų prieinamumas visuomenei ir valstybėms gali pakirsti mūsų realybės pojūtį.
Giluminės klastotės perkelia mus už tekstu paremto įtikinėjimo ribų, nes vaizdai daro žinutę kur kas labiau įsimenamą – ir įtikinamą – nei vien abstrakčios sąvokos. Todėl jų naudojimas skleidžiant dezinformaciją kelia daug didesnį susirūpinimą.
Kaip atpažinti gilumines klastotes?
Kalbant apie dirbtinio intelekto sukurtus „žmones“, nėra vieno skiriamojo ženklo, kaip atpažinti, kad jie klastotė. Vis dėlto yra keletas dalykų, į kuriuos galite atkreipti dėmesį:
- Atkreipkite dėmesį į skruostus ir kaktą. Ar oda atrodo per lygi, ar per daug raukšlėta? Ar odos amžius panašus į plaukų ir akių amžių? Giluminės klastotės gali būti nesuderintos kai kuriais matmenimis.
- Atkreipkite dėmesį į akis ir antakius. Ar šešėliai pasirodo tose vietose, kuriose tikėtumėtės, kad pasirodys? Giluminės klastotės gali nevisiškai realistiškai sukurti natūralių apšvietimą.
- Atkreipkite dėmesį į akinius. Ar yra kokių nors atspindžių? Ar nėra per daug atspindžių? Ar keičiasi atspindžio kampas, kai asmuo juda?
- Atkreipkite dėmesį į veido plaukus arba jų nebuvimą. Ar šie veido plaukai atrodo tikri? Giluminės klastotės gali pridėti arba pašalinti ūsus, antakius arba barzdą, tačiau algoritmams gali nepavykti visiškai natūraliai atvaizduoti veido plaukų.
- Atkreipkite dėmesį į veido apgamus. Ar apgamai atrodo tikri?
- Atkreipkite dėmesį į mirksėjimą. Ar asmuo mirksi pakankamai, o gal per daug?
- Atkreipkite dėmesį į lūpų judesius. Kai kurios giluminės klastotės pagrįstos lūpų sinchronizavimu. Ar lūpų judesiai atrodo natūralūs?
Šie klausimai gali padėti žmonėms atpažinti gilumines klastotes.
Aukštos kokybės gilumines klastotes nėra lengva atpažinti, tačiau praktikuodamiesi žmonės gali įgyti intuiciją atpažinti, kas yra klastotė, o kas – tikra.
Parengta pagal CNN, „MIT media lab“ ir „Fortune“.