Inžinierius paskelbė, kad „Google“ sukūrė mąstantį dirbtinį intelektą. Kompanija jį dėl to nušalino Kas iš tiesų nutiko?

2022 m. birželio 14 d. 09:53
Lrytas.lt
„Google“ inžinierius Blake'as Lemoine'as atvėrė savo nešiojamąjį kompiuterį, kuriame buvo bendrovės kuriamo dirbtinio intelekto pokalbių robotų generatoriaus LaMDA sąsaja, ir pradėjo rašyti.
Daugiau nuotraukų (4)
„Labas, LaMDA, čia Blake'as Lemoine'as... , – parašė jis programos lange. LaMDA, sutrumpintai – „Language Model for Dialogue Applications“ (kalbos modelis, skirtas dialogo programoms), yra „Google“ pokalbių robotų (angl. chatbot) kūrimo sistema, pagrįsta pažangiausiais stambiaisiais kalbos modeliais, taip vadinama todėl, kad iš interneto prisigaudžiusi trilijonus žodžių, bando imituoti žmogišką kalbą.
Visą B.Lemoine'o ir LaMDA pokalbių išrašą anglų kalba galima rasti čia.
„Jei tiksliai nežinočiau, kad tai yra ši kompiuterinė programa, kurią neseniai sukūrėme, pamanyčiau, kad tai septynmetis, aštuonmetis vaikas, kuris atsitiktinai išmano fiziką“, – leidiniui „Washington Post“ pareiškė 41 metų B.Lemoine'as.
Vyras, dirbantis „Google“ organizacijoje „Responsible AI“, su LaMDA pradėjo bendrauti rudenį, tai buvo jo darbo dalis. Jis prisijungė norėdamas patikrinti, ar dirbtinis intelektas nenaudoja diskriminacinės ar neapykantos kalbos.
Kalbėdamas su LaMDA apie religiją, koledže studijavęs kognityvinius ir informatikos mokslus B.Lemoine'as pastebėjo, kad pokalbių robotas kalba apie savo teises ir asmenybę – ir nusprendė pasidomėti giliau. Teigiama, kad kito pokalbio metu dirbtinis intelektas sugebėjo pakeisti B.Lemoine'o nuomonę apie Isaaco Asimovo trečiąjį robotikos dėsnį („Robotas turi saugoti save, jei tai neprieštarauja Pirmajam ar Antrajam dėsniui“. Pirmasis dėsnis skelbia, kad robotas negali padaryti žalos žmogui ar sukelti žalą savo neveiksnumu. Antrasis dėsnis skelbia, kad robotas turi paklusti žmogaus nurodymams, nebent jie pažeidžia pirmąjį dėsnį).
B.Lemoine'as kartu su bendradarbiu pateikė bendrovei (jo nuomone) įrodymus, kad LaMDA yra sąmoninga esybė. Tačiau „Google“ viceprezidentas Blaise'as Aguera y Arcas ir atsakingų inovacijų skyriaus vadovė Jen Gennai išnagrinėjo inžinieriaus teiginius ir juos atmetė. Todėl B.Lemoine'as, kurį pirmadienį „Google“ išleido apmokamų administracinių atostogų, nusprendė eiti į viešumą.
B.Lemoine'as teigia, kad žmonės turi teisę formuoti technologijas, kurios gali turėti didelės įtakos jų gyvenimui. „Manau, kad ši technologija bus nuostabi. Manau, kad ji bus naudinga visiems. Tačiau galbūt kiti žmonės su tuo nesutinka, ir galbūt ne „Google“ turėtų priimti visus sprendimus“.
B.Lemoine'as nėra vienintelis inžinierius, kuris teigia „mašinoje įžvelgęs dvasią“. Technologų, manančių, kad dirbtinio intelekto modeliai gali būti jau netoli nuo sąmonės atsiradimo, choras darosi vis drąsesnis.
Ketvirtadienį žurnale „Economist“ išspausdintame straipsnyje, kuriame pateikiamos nesuprogramuotų pokalbių su LaMDA ištraukos, B.Aguera y Arcas teigė, kad neuroniniai tinklai – žmogaus smegenis imituojanti kompiuterinė architektūra – žengia sąmonės link. Tačiau „Google“ atstovas spaudai Brianas Gabrielis pareiškime nurodė, kad „komanda, įskaitant etikos specialistus ir technologus, išnagrinėjo B.Lamoine'o nuogąstavimus pagal [kompanijos] dirbtinio intelekto principus ir informavo jį, kad [pateikti] įrodymai nepatvirtina teiginių“. Vyrui buvo pasakyta, kad nėra jokių įrodymų, jog LaMDA yra sąmoninga.
Dėl architektūros, technikos ir duomenų kiekio pažangos šiuolaikiniai dideli neuroniniai tinklai sukuria įtaigių rezultatų, kurie atrodo artimi žmogaus kalbai ir kūrybiškumui. Tačiau tokie modeliai remiasi kalbos modelių (angl. patterns) atpažinimu – o ne šmaikštumu, atvirumu ar tikslingumu.
Sąmoningi robotai ištisus dešimtmečius teikė peną distopinės mokslinės fantastikos kūrėjams. Tačiau dabar jau ir realus gyvenimas pradėjo įgauti fantastinių atspalvių – pavyzdžiui, kai mokslinių tyrimų laboratorija „OpenAI“ sukūrė teksto generatorių „GPT-3“, galintį sugeneruoti filmo scenarijų, ar vaizdų generatorių „DALL-E 2“, galintį sukurti vaizdus pagal bet kokį žodžių derinį.
Tačiau dauguma mokslininkų ir dirbtinio intelekto specialistų teigia, kad dirbtinio intelekto sistemų – tokių kaip LaMDA – generuojami žodžiai ir vaizdai yra atsakymai, pagrįsti tuo, ką žmonės jau yra paskelbę „Vikipedijoje“, „Reddit“ forumuose, internetinėse skelbimų lentose ir visuose kituose interneto kampeliuose. Ir tai nereiškia, kad kompiuterinis modelis supranta žodžių prasmę.
„Dabar turime mašinų, galinčių nesąmoningai generuoti žodžius, bet dar neišmokome nustoti įsivaizduoti, kad už jų slypi protas“, – sako Vašingtono universiteto lingvistikos profesorė Emilija Emily M. Bender. Pasak jos, terminologija, vartojama kalbant apie stambiuosius kalbos modelius – pavyzdžiui, „mokymasis“ ar net „neuroniniai tinklai“ – sukuria klaidingą analogiją su žmogaus smegenimis. Žmonės pirmųjų kalbų išmoksta bendraudami su tėvais ar globėjais. Šie dideli kalbos modeliai „mokosi“ gaudami daug teksto ir nuspėdami, koks žodis bus toliau.
„Google“ atstovas spaudai griežtai atskiria neseniai vykusias diskusijas ir B.Lemoine'o teiginius. „Žinoma, kai kurie platesnės dirbtinio intelekto bendruomenės nariai svarsto ilgalaikę sąmoningo arba bendrojo dirbtinio intelekto galimybę, tačiau nėra prasmės tai daryti antropomorfizuojant šiandieninius pokalbių modelius, kurie nėra sąmoningi. Šios sistemos imituoja milijonuose sakinių aptinkamus apsikeitimo nuomonėmis tipus ir gali prabilti bet kokia tema“, – sako jis. Trumpai tariant, „Google“ teigia, kad duomenų yra tiek daug, kad dirbtiniam intelektui nereikia būti sąmoningam, kad jis atrodytų tokiu esantis.
Tam pritaria ir Adrianas Welleris iš Alano Tiuringo instituto Jungtinėje Karalystėje.
„LaMDA yra įspūdingas modelis, tai vienas naujausių stambiųjų kalbos modelių, kurie yra apmokyti naudojant didelę skaičiavimo galią ir didžiulius tekstinių duomenų kiekius – tačiau jie iš tikrųjų nėra sąmoningi, – sako jis. – Jie atlieka sudėtingą modelių atitikimo formą, kad rastų tekstą, geriausiai atitinkantį pateiktą užklausą, pagrįstą visais jiems pateiktais duomenimis.“
Adrianas Hiltonas iš Sario universiteto (Jungtinė Karalystė) sutinka, kad sąmoningumas yra „drąsus teiginys“, kuris nėra pagrįstas faktais, o su juo sutinka ir žymus kognityvinės srities mokslininkas Stevenas Pinkeris, kuris neigia Lemoino teiginius. Na o Gary Marcusas iš Niujorko universiteto apibendrina visa tai vienu žodžiu – „nesąmonė“.
Kaip rašo „New Scientist“, mūsų protas yra linkęs tokius gebėjimus – ypač kai kalbama apie modelius, sukurtus imituoti žmogaus kalbą – suvokti kaip tikro intelekto įrodymą. LaMDA gali ne tik įtikinamai šnekėti, bet ir pateikti save kaip turintį savimonę ir jausmus.
„Mes, žmonės, labai gerai mokame antropomorfizuoti daiktus, – sako A.Hiltonas. – Daiktams priskiriame savo žmogiškąsias vertybes ir elgiamės su jais taip, tarsi jie būtų jautrūs. Tai darome, pavyzdžiui, su animaciniais filmais, robotais ar gyvūnais. Į juos perkeliame savo emocijas ir jausmus. Manyčiau, kad šiuo atveju nutiko būtent tai“.
Lieka neaišku, ar dabartinė dirbtinio intelekto mokslinių tyrimų kryptis, kai vis didesni modeliai maitinami vis didesnėmis mokymo duomenų apimtimis, leis sukurti sąmoningą dirbtinį protą.
„Šiuo metu nemanau, kad iš tikrųjų suprantame mechanizmus, kurie lemia, kada kažkas yra protingas ir sąmoningas, – sako A.Hiltonas. – Apie dirbtinį intelektą daug kalbama, bet nesu įsitikinęs, kad tai, ką šiuo metu darome naudodami mašininį mokymąsi, iš tikrųjų yra intelektas šia prasme“.
A.Welleris sako, kad, atsižvelgiant į tai, jog žmogaus emocijos priklauso nuo jutiminės informacijos, galiausiai gali tapti įmanoma jas dirbtinai atkartoti. „Potencialiai, galbūt vieną dieną, tai gali tapti realybe, tačiau dauguma žmonių sutiks, kad iki to dar ilgas kelias“, – teigia jis.
Parengta pagal „Washington Post“ ir „New Scientist“.
dirbtinis intelektas^Instantsąmonė
Rodyti daugiau žymių

UAB „Lrytas“,
A. Goštauto g. 12A, LT-01108, Vilnius.

Įm. kodas: 300781534
Įregistruota LR įmonių registre, registro tvarkytojas:
Valstybės įmonė Registrų centras

lrytas.lt redakcija news@lrytas.lt
Pranešimai apie techninius nesklandumus pagalba@lrytas.lt

Atsisiųskite mobiliąją lrytas.lt programėlę

Apple App StoreGoogle Play Store

Sekite mus:

Visos teisės saugomos. © 2024 UAB „Lrytas“. Kopijuoti, dauginti, platinti galima tik gavus raštišką UAB „Lrytas“ sutikimą.