Egészség
Kiválthatja-e a pszichológusokat egy chatbot?
Bizonyos tévedések egy érzelmileg érzékeny élethelyzetben veszélyesek is lehetnek

A hosszú várólisták és az esetenként elérhetetlen, túlterhelt szakemberek miatt sokan érzik úgy, hogy nincs kihez fordulniuk lelki problémáikkal. Ilyenkor jó alternatívának tűnhet egy mindig elérhető, udvarias és azonnal válaszoló chatbot, például a ChatGPT – azonban veszélyeket is rejthet. „Ha egy chatbothoz fordulunk érzelmi támogatásért, az kockázatos lehet, ugyanis elmosódnak a határvonalak a tanácsadás, a megnyugtatás és az érzelmi függőség között” – olvasható Carly Dober pszichológus a The Guardianon megjelentetett cikkében.
Elérhetőbb, de nem lát belénk jobban
A chatbotok bizonyos típusai bárkinek ingyenesen elérhetőek a nap 24 órájában, és alig néhány másodperc alatt személyre szabott és részletes válaszokat nyújtanak gyakorlatilag bármilyen kérdésre. Túlterhelt és kétségbeesett pillanatainkban, illetve álmatlan éjszakáinkon ezért igen vonzó lehetőség, hogy néhány mondat begépelése után szinte azonnal bölcs tanácsokhoz jussunk, amelyek megnyugtatóan hathatnak ránk.
„Én viszont pszichológusként egyre jobban aggódom amiatt, amit látok. Elindult egy csendes változás az emberek stresszkezelési módszerei terén, és egyre inkább a mesterséges intelligenciára támaszkodnak a valódi kapcsolataik és a terápiás folyamatok helyett” – fogalmazott Dober, aki egyik kliense, Tran történetét hozta fel példaként, hogy bebizonyítsa, mennyire veszélyes terepre tévedhetünk, ha egy chatbottól várjuk, hogy segítsen eligazodni az érzelmeink között.
Tran jelentős mennyiségű munkahelyi stresszel és párkapcsolati problémákkal küzdött, amikor egy napon letöltötte a ChatGPT-t a telefonjára, „csak kipróbálni”. A kezdeti kíváncsiság és kísérletezés azonban hamarosan napi szintű megszokássá vált, és kialakult egyfajta érzelmi függőség is. Minél többet használta ugyanis a férfi a ChatGPT-t, annál inkább elkezdte kétségbe vonni saját alapviselkedését, így már minden esetben a chatbottól kért segítséget a kollégáinak és szeretteinek küldött válaszok megfogalmazásához. Egy idő után már nemcsak útmutatást kért a mesterséges intelligenciától, hanem ettől az eszköztől várta a megerősítéseket, és még saját érzéseinek „értelmezéséhez” is kizárólag ezt használta. Volt, hogy addig fogalmazta át újra és újra a chatbotnak adott utasítás, amíg a kapott válasz „helyesnek” nem érződött. A férfi párja azonban észrevette, hogy megváltoztak a szerelmétől kapott üzenetek: túlságosan megfontoltak, érzelemmentesek és személytelenek lettek.
Az „MI-terápia” veszélyei
Ez a fajta függés viszont nem csupán a kapcsolatokban okozhat problémát. Pszichológiai szempontból is veszélyes lehet, ha valaki a saját érzéseinek értelmezését és döntéseinek meghozatalát egy algoritmus „kezébe” adja. Ez különösen a szorongással, kényszerbetegséggel vagy traumával küzdő embereknél rejt komoly kockázatokat. A mesterséges intelligencia – bármennyire is okos – nem képes helyettesíteni az emberi kapcsolatokat és az érzelmi tanulás folyamatát. Ahogy azt Tran esete is bemutatta, a túlzott MI-használat akár akadályt is gördíthet az önreflexió és az érzelmi fejlődés elé, ha ahelyett, hogy megtanulnánk kezelni a bizonytalanságot, csak a „tökéletes válaszokat” hajszoljuk.
Egy valódi terapeuta nemcsak tanácsot ad, hanem kérdez, szembesít, támogat és visszajelzéseket is ad. Segít felismerni a viselkedési mintáinkat, feldolgozni a fájdalmainkat, valamint fejlődni. Ezzel szemben a chatbot soha nem kérdezi meg, hogy miért tesszük fel újra és újra ugyanazokat a kérdéseket, nem szól, ha sokáig nem válaszolunk, és nem emlékeztet minket arra, hogy milyen célok felé kellene haladnunk. A mesterséges intelligencia emellett nem képes figyelembe venni az érzelmi árnyalatokat, a nonverbális jeleket, vagy a bonyolult érzelmi és családi hátterünket, amelyet egy valódi terapeuta viszont mindig szem előtt tart. „Az emberi terapeuták klinikai készségekkel is rendelkeznek; észrevesszük, ha remeg a kliens hangja, vagy ha a csendje többet mond, mint a szavak” – magyarázta Dober.
De vannak egyéb aggályok is a mesterséges intelligenciától várt mentális támogatással kapcsolatban:
- A ChatGPT-vel vagy más hasonló eszközökkel folytatott beszélgetéseket nem védi ugyanolyan szintű titoktartás, mint amelyet egy szakképzett terapeuta garantálni tud. A felhasználók nem feltétlenül vannak tisztában azzal, hogy az adataikat milyen módon tárolhatják és hasznosíthatják újra az újabb modellek tanítására.
- A chatbotok sem tévedhetetlenek. Előfordulhatnak úgynevezett „hallucinációk”, amikor a chatbot teljesen téves választ ad, de azt olyan meggyőzően teszi, hogy nem is fogunk gyanút. Ezek a tévedések azonban egy érzelmileg érzékeny élethelyzetben nemcsak félrevezetők, de akár veszélyesek is lehetnek.
- A generatív mesterséges intelligencia modellek – bár nem szándékosan, de elkerülhetetlenül – fenntarthatják, sőt akár fel is erősíthetik a nemi, faji és fogyatékosságon alapuló sztereotípiákat is.
A kulcs: az okos, tudatos használat
A fentiek persze nem azt jelentik, hogy a mesterséges intelligenciának egyáltalán nem lehet helye az életünkben. Ha még ma is igazak a 2019-es adatok, akkor a világon minden nyolcadik ember valamilyen mentális betegséggel küzd. Mindeközben súlyos hiány van a képzett mentálhigiénés szakemberekből. Érthető tehát, hogy az emberek alternatívákat keresnek.
A ChatGPT és a hasonló modellek valóban hasznosak lehetnek, ha jól érthető összefoglalókat, pszichoedukációs tartalmakat vagy akár a lelki gyógyulás kezdeti lépéseinek támogatását kérjük tőlük, amíg a szakemberekhez való hozzáférésünk korlátozott. Óvatosan kell azonban használni ezeket, és muszáj tudatosítani magunkban, hogy egy chatbot soha nem helyettesítheti a személyes, szabályozott mentálhigiénés ellátást – figyelmeztetett a pszichológus, derül ki a hazipatika.com cikkéből.