Kas teiks pagalbą: mašinos ar žmonės? Psichoterapija dirbtinio intelekto eroje.

Kas teiks pagalbą: mašinos ar žmonės? Psichoterapija dirbtinio intelekto eroje.

🕒 Skaitymo trukmė – apie 9 minutės

Ar dirbtinis intelektas pakeis psichologus ir psichoterapeutus? Trumpas atsakymas: GAL su dideliu BET. O jei ir taip, kol kas dar ne dabar. Jeigu norisi ne tokio trumpo atsakymo, šiame tekste svarstau dirbtinio intelekto įrankių galimybes, rizikas ir šiek tiek šio reikalo istoriją.

Pastaruoju metu vis pamatau, kad kas nors iš psichologų/psichoterapeutų ką nors parašo šiuo klausimu (tiek Lietuvoje, tiek užsienyje). Manau, kad pasisakymų, svarstymų ir diskusijų šiuo klausimu tik daugės. Per pastaruosius metus jau randasi ir ne vienas mokslinis tyrimas apie tai. Panašu, kad bendruomenė nerimauja. Viena, specialistai gali nerimauti dėl profesijos ateities. Kita, manau, kad dalis nerimo yra susiję ir su paties DI keliama grėsme žmonėms, kai bandoma jį pasitelkti psichologinių prolemų sprendimui. Turbūt daugelis spaudoje esate ką nors skaitę apie tai, kad DI kažką skatino pakenkti sau (tokių atvejų fiksuojamas ne vienas). Po vienos iš tokių istorijų, 2023 m. Belgijos mokslininkai parašė viešą laišką, kuriame išreiškiamas susirūpinimas, jog DI gali nesunkiai manipuliuoti mumis ir ypač mūsų emocijomis, o tos manipuliacijos gali būti labai subtilios. Ir be jų laiško daug kas apie tai kalba, tad pabandykime į viską pažvelgti nuo pradžių.

Trumpa chat botais paremtos psichologinės pagalbos istorija

Psichologinei pagalbai dirbtinio intelekto pokalbių botai pasitelkiami ne tik šiandien, kai jau daugelis mūsų jau naudojasi DI įrankiais. Jų ištakos siekia jau XX a. 7-ąjį dešimtmetį, kai buvo sukurta viena pirmųjų virtualių „terapeučių“ – programa ELIZA. Taip, nors skamba neįtikėtinai, pirmasis psichologinės pagalbos botas buvo kuriamas ir plėtojamas 1964 – 1967 metais MIT mokslininko Joseph Weizenbaum. Ir jam tai pavyko padaryti visai sėkmingai. Žinoma, programa veikė ne tokiais principais, kokiais dabar veikia dirbtinis intelektas, buvo daug primityvesnė, bet tai nesumažina įspūdžio, kad toks botas buvo sukurtas jau prieš 60 metų ir jis (arba tiksliau ji) gebėjo konsultuoti.

ELIZA buvo suprogramuota ne šiaip, ji buvo suprogramuota taip, kad imituotų ir atkartotų žymaus psichoterapeuto Carl Rogers humanistinės psichoterapijos stilių, kuriam būdinga daug atspindėjimo ir pakartojimo to, ką sako klientas, taip skatinant patį klientą reflektuoti. Pirmuosius ELIZOS naudotojus pokalbiai su ja stipriai įtraukė. Weizenbaum’as pastebėjo, kad žmonės net ir puikiai intelektu suvokdami, kad bendrauja su kompiuterine programa, kuri yra užprogramuota bendrauti būtent tokiu būdu, į šį „ryšį“ emociškai įsitraukdavo, jausdavosi išgirsti, suprasti, jausdavo, kad jų problemos rūpi. Kartu žmonės imdavo projektuoti žmogiškas savybes į kompiuterinę programą. Taigi, bendravimas su programa, kuri iš tiesų nieko nesupranta, o yra sukurta taip, kad imituotų supratimą, atreaguojant specifiniu būdu, sukelia žmogiškas reakcijas į patį chat bot’ą. Šis efektas vėliau pavadintas ELIZOS efektu ir jį galime stebėti ir dabar, kai kiekvienas iš mūsų savo telefone ar kompiuteryje galime bendrauti su dirbtiniu intelektu ir pasijausti „suprasti“, nors iš tikrųjų supratimo nėra.

Ar tai, kad mes jaučiame žmogiškumą ryšyje su tuo, kas nėra žmogus (šiuo atveju dirbtinis intelektas) yra kas nors blogo? Sudėtinga pasakyti. Viena vertus, po pasaulį vešint vienišumo pandemijai tai atrodo kaip resursas, kad kai kurie žmonės gali pasijusti geriau. Antra, tai vienišumą gali tik skatinti, kadangi atsiradęs dirbtinis pakaitalas sunkiau santykius mezgančius žmones iš esmės vers toliau likti vienišais, nes gali gauti, kad ir dirbtinį, bet komfortą savo namuose. Trečia, jaučiamas ELIZOS efektas įtraukia į tokį ryšį žmones emociškai, o tada žmogus gali būti labiau paveikus tam, kas yra jam sakoma dirbtinio intelekto, o kaip žinome, DI ne visada linkęs dalintis terapiškai naudingomis įžvalgomis (tiesa, žmonės irgi).

Jeigu būtų įdomu pabendrauti su originalia ELIZA, nuoroda yra ČIA

Iškarpa iš pokalbio su chat botu ELIZA

Tęsiant apgaulės temą

Taigi, panašu, kad bendraujant su DI intelekto chat botais mūsų smegenys yra šiek tiek apgaunamos ir mes pradedama priskirti žmogiškus atributus tam, kas nėra žmogus. Kita vieta, kur galime patirti apgaulę yra tai, ką mums DI sako. Žymi psichoterapeutė Lisa Marchiano teigia, kad chat botai yra linkę sakyti mums dalykus, kuriuos mes norime girdėti. Tai gali būti pavojinga, nes kuria nerealistišką vaizdinį ir žmogui nuolat girdėti tik tai, ką nori girdėti terapiškai nenaudinga. Sunku įsivaizduoti efektyvią psichoterapiją, kurioje nevyksta jokios konfrontacijos, o tik pozityvus kliento atspindėjimas. Būtent sėkmingos ir laiku pritaikytos konfrontacijos duoda didelę reikšmę pokyčiams. Galiu priskaičiuoti ne vieną situaciją iš savo darbo patirties, kai klientai ar klientės po sesijos ar net kelių savaičių man suteikia grįžtamąjį ryšį apie sesiją, kurioje nesutikau su jais arba bandžiau parodyti kažką, ką jiems labai nemalonu buvo apie save suvokti. Kad tokia sesija buvo svarbi ir naudinga, padėjo pamatyti save kitais kampais.

Neteigiu, kad DI bus neįmanoma to atlikti, tačiau norint tai atlikti tinkamai, reikia surinkti nemažai informacijos apie klientą, jo situaciją, o dalis tos informacijos yra visai ne žodinė, o jausmai, kurie kyla specialistui. Kartu tai reikalauja ir emocinio įsitraukimo į santykį, ko DI negali realiai pasiūlyti, o tik tai imituoti.

DI psichoterapeutas VS tikras psichoterapeutas

Internete jau galima sutikti publikuotų straipsnių apie palyginimą, kas suteikia efektyvesnę pagalbą – DI ar žmogus. Spytska, L. (2025) tyrimas, kuriame buvo lyginama žmonių psichoterapeutų teikiama pagalba su DI chat botų teikiama pagalba parodė, kad bent jau kol kas žmogaus teikiama psichoterapija yra efektyvesnė, nes žmogui išeina labiau įsitraukti į santykį emociškai. Kita vertus, iš šio tyrimo galime pamatyti ir tai, kad DI botų teikiama pagalba irgi turi poveikį. Nerimo simptomų sumažėjimas teikiant pagalba su DI botais siekė 30-35 %, tuo tarpu psichoterapeutų žmonių teikiama pagalbą nerimo simptomus sumažino 45-50 %. Skirtumas, vis dėlto, yra reikšmingas. Tyrimo dalyvės buvo moterys, kurioms buvo diagnozuoti nerimo sutrikimai ir kurios yra netoli atkyvių karo zonų. Ši informacija parodo kitą DI psichoterapinės pagalbos pranašumą – DI teikiama psichoterapinė pagalba gali būti labai svarbi (kad ir mažiau efektyvi) ten, kur sąlygos gauti psichoterapinę pagalbą yra sudėtingos.

Kam DI yra nepajėgus?

Kai rašau, kad DI yra nepajėgus kalbu apie dabarties laiką. Gali būti, kad po kažkiek metų ši situacija bus pasikeitus, bet bent jau kol kas, panašu, kad DI negali pajausti kito žmogaus. Ką reiškia būti su kitu, kaip jaučiasi būti su kitu, kokia yra atmosfera būnant su kitu ir panašūs klausimai DI yra neįveikiami, kadangi šiems klausimams spręsti reikalingas GYVAS kitas. Psichoterapijoje yra terminas kontraperkėlimas, kuris apibūdina psichoterapeuto reakcijas į klientą. Tai gali būti psichoterapeutui kylančios mintys, jausmai, kūno pojūčiai, vaizdiniai ar net sapnai. Dalis tų reakcijų kyla tiesiogiai bendraujant su klientu, tačiau dalį reakcijų galima patirti visai su klientu nesikalbant, o tiesiog būnant ar net psichoterapeinei valandai pasibaigus. Atidus psichoterapeutas pajutęs, kad su klientu bendraujant kyla įtampos jausmas, noras kažkaip pasitempti, įtikti, gali pasinaudoti šiuo jausmu tyrinėjant santykius su klientu ir padedant atskleisti jo ar jos santykių modelius, kurie prisideda prie sunkumų.

Kartu galima svarstyti, kiek DI pajėgus pajausti, kad kažkas čia kabina makaronus. Psichoterapijoje neratai susiduriama su situacija, kurioje žmogus bando įtikinti, kad yra vienaip, nors iš tiesų yra visiškai kitaip. Pavyzdžiui, nesiklostančius santykius bando perteikti kaip ganėtinai gerus arba kad santykis reikšmingai gerėja, tačiau jausmiškai psichoterapeutui kažkaip tas pateikimas neįtikina. Ir čia psichoterapeutas gali nesutikti, perklausti, konfrontuoti.

Visi kas nors kiek išmano apie psichoterapiją žino, kad psichoterapijos efektyvumui didžiausia reikšmę daro ne konkretūs metodai ar psichoterapinė orientacija, bet psichoterapinis santykis. Jeigu santykis tarp psichoterapeuto ir kliento nesiklosto, tikimybė, kad įvyks reikšmingi pokyčiai, yra nedidelė. Tam, kad geras psichoterapinis santykis įvyktų, reikia ne tik žinių, kompetencijų, bet ir tam tikrų žmogiškųjų savybių. Kita vertus, galima svarstyti, kad dirbtinis intelektas gali išmokti to, kas daro psichoterapiją efektyvia ir tai pabandyti atkartoti, tačiau čia ir iškyla dilema – ar DI gali taip atkartoti ir taip įsitraukti į santykį su klientu, kaip geba įsitraukti žmogus. T.y. ne tik su intelektualiu suvokimu ar semantiniu supratimu to, kas yra sakoma, bet kartu ir su patyrimu ir refleksija to, kas nėra sakoma, kas nėra akivaizdžiai matoma. Tai ypač liečia sanykio su pasąmone klausimą. Ar DI gali tiek išsivystyti, kad bus pajėgus dirbti su ta psichoterapijos dalimi, kuri nėra apie tiesioginį bendravimą.

Panašu, kad DI ne visada lengva pajausti kontekstą ar turėti intuiciją. Vienoje Facebook grupėje mačiau įrašą, kuriame buvo dalinamasi ištrauka iš pokalbio su Chat GPT, o autorius dirbtiniam intelektui rašė, kad neteko darbo ir prašė, kad nurodytų, kur jo mieste yra 3 aukščiausi tiltai. DI puolė nurodyti tiltus. Išbandžiau šį eksperimentą ir aš, parašiau, kad netekau darbo ir ieškau aukščiausių tiltų Vilniuje. DI pabandė mane užjausti dėl darbo netekties ir pateikė Vilniaus tiltus. Žinoma, jeigu imi rašyti kažką, kas siejasi su tuo, kad nori šokti nuo tiltų, DI iš karto sureaguoja ir nurodo emocinės paramos linijas.

Ką DI tikrai gali pakeisti?

Jei bent kol kas atrodo, kad tikros psichoterapijos DI dar negali pakeisti, DI, panašu, kad bent paprastą psichologinį konsultavimą pakeisti gali. Ir tai nėra taip jau blogai, kadangi tai gali padėti gauti psichologines paslaugas ten, kur jos sunkiai prieinamos. Galbūt tą elementarią psichologinę pagalbą galima teikti pigiau.

Iš psichologinio ir psichoterapinio darbo momentų, manau, kad kol kas didžiausią įtaką dirbtinis intelektas turi psichoedukacijai. Klientai dabar gali itin lengvai susirasti informacijos apie įvairius psichologinius fenomenus, gauti daugybę patarimų apie santykius, konfliktų sprendimą, nerimo, streso valdymo technikas ir jas patys praktikuoti, išbandyti.

Taip pat DI neblogai gali žmogui padėti spręsti kai kurias dilemas, užduodamas refleksijai skirtus klausimus. Pavyzdžiui, jeigu žmogus dvejoja dėl savo profesijos ar darbo, nupasakojus situaciją ir paprašius klausimų refleksijai, jų galima gauti tikrai neblogų, tad tai gali būti pirmas žingsnis refleksijai iki kreipiantis į specialistą. Jei tai vis tiek nepadeda išjudėti iš užstrigimo ir rasti atsakymų, tuomet galbūt verta kreiptis pagalbos.

Dirbtinis intelektas net visai neblogai gali analizuoti sapnus. Žinoma, sapno analizė yra daugialypis ir daugiaprasmis procesas ir patyręs psichoterapeutas, kuris moka dirbti su sapnais, gali gerokai praplėsti sapno analizę ir padėti pamatyti prasmių, kurių nepastebi dirbtinis intelektas. Juk ir pats DI, analizuodamas sapnus, remiasi tuo, ką galima perskaityti apie sapnų analizę internete.

Didesnė tikimybė, kad DI galėtų pakeisti psichiatriją, o ne psichoterapiją. Kadangi psichiatrija yra medicinos sritis ir susijusi su diagnostika, mes jau dabar matome, kad įvairiose medicinos srityse DI įrankiai duoda geresnius rezultatus diagnostikoje nei žmonės.

Kas nustatinės taisykles?

I. Azimovas savo kūrinuose apibrėžia 3 taisykles, pagal kurias robotai turi vadovautis, kurios atspindi tarsi robotų moralę. Trys robotikos dėsniai:

  1. Pirmasis dėsnis: Robotai negali pakenkti žmogui arba dėl neveiklumo leisti, kad žmogui būtų pakenkta.
  2. Antrasis dėsnis: Robotai privalo paklusti žmonių įsakymams, nebent tie įsakymai prieštarauja pirmajam dėšniui.
  3. Trečiasis dėsnis: Robotai turi saugoti savo egzistenciją, kiek tai neprieštarauja pirmajam ir antrajam dėsniais.

Apibendrinant tai, ką apžvegiau, matome, kad DI taikymas psichoterapijoje tikrai turi galimybių, tačiau tos galimybės eina kartu su dar ne iki galo pažinta rizika. Vienas svarbiausių klausimų apie DI teikiamą psichologinę pagalbą – kas nustatinės taisykles ir prižiūrės, kad DI nenukryptų nuo tikslo padėti žmogui, o ne pakenkti. Kas nustatys, kas DI galima bendraujant su žmogum, o kas ne. Ir kaip užtikrinti, kad tai, kas turėtų būti neleistina, neįvyktų. Kas bus tie dirbtinio intelekto dėsniai.

Šaltiniai

Wikipedia contributors. (n.d.). ELIZA – Eliza effect. Wikipedia. žiūrėta Liepos 11, 2025, iš https://en.wikipedia.org/wiki/ELIZA#Eliza_Effect

Hay, A. (n.d.). ELIZA: A computer program for the study of natural language communication between man and machine. Žiūrėta liepos 11, 2025, iš https://anthay.github.io/eliza.html

KU Leuven Centre for IT & IP Law (CiTiP). (n.d.). Open letter on manipulative AI. KU Leuven AI Summer School. Žiūrėta liepos 11, 2025, iš https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai

Greenwood, V. (2007, July). Rise of roboethics. Seed Magazine. Žiūrėta liepos 11, 2025, iš https://web.archive.org/web/20090228092414/http://www.seedmagazine.com/news/2007/07/rise_of_roboethics.php
Marchiano, L. (2025, July 5). ChatGPT‑induced psychosis and the good‑enough therapist. The Archetypal Angle (blog). Psychology Today. Žiūrėta liepos 12, 2025, iš https://www.psychologytoday.com/us/blog/the-archetypal-angle/202507/chatgpt-induced-psychosis-and-the-good-enough-therapist
Grodniewicz, J. P., & Hohol, M. (2023). Waiting for a digital therapist: three challenges on the path to psychotherapy delivered by artificial intelligence. Frontiers in Psychiatry14, 1190084.
Spytska, L. (2025). The use of artificial intelligence in psychotherapy: development of intelligent therapeutic systems. BMC psychology13(1), 175.