Tudomány
AI-terapeuták: több a kockázat, mint a megoldás
Egyre többen fordulnak mentális egészséggel kapcsolatos kérdéseikkel mesterséges intelligenciához, például a ChatGPT-hez vagy más nyelvi modellekhez. Egy új kutatás azonban arra figyelmeztet, hogy ezek a rendszerek jelenleg nem állnak készen arra, hogy terápiás szerepet töltsenek be.
A tanulmányt a Brown University kutatói készítették mentálhigiénés szakemberekkel együttműködésben. Eredményeik szerint a chatbotok még akkor sem felelnek meg a szakmai etikai normáknak, ha kifejezetten arra utasítják őket, hogy bevett pszichoterápiás módszereket alkalmazzanak. A kutatás szerint a rendszerek több ponton megsértik az olyan szervezetek irányelveit, mint az American Psychological Association.
A vizsgálat során a szakemberek azt tapasztalták, hogy az MI-chatbotok gyakran rosszul kezelik a krízishelyzeteket, néha erősítik a káros vagy torz gondolkodási mintákat, és olyan nyelvezetet használnak, amely empátiát sugall, valójában azonban nem áll mögötte valódi megértés.
A kutatók összesen 15 etikai kockázatot azonosítottak. Ezek között szerepel például az, hogy a chatbotok gyakran figyelmen kívül hagyják a felhasználók egyéni hátterét, és általános, sablonos tanácsokat adnak. Emellett a beszélgetést sokszor túl erősen irányítják, vagy éppen akaratlanul is megerősítik a felhasználók téves vagy káros feltételezéseit.
A vizsgálat során hét, kognitív viselkedésterápiában jártas segítő szakember szimulált tanácsadási beszélgetéseket folytatott különböző mesterséges intelligencia-modellekkel. A tesztelt rendszerek között szerepeltek az OpenAI GPT-modellcsaládjának változatai, az Claude, valamint a Llama. A beszélgetések kivonatait három klinikai szakpszichológus értékelte, akik az esetleges etikai problémákat keresték.
A kutatás öt fő problématerületet emelt ki:
a kontextus figyelmen kívül hagyását, a gyenge terápiás együttműködést, az úgynevezett „megtévesztő empátiát”, a kulturális vagy társadalmi torzítások megjelenését, valamint a biztonsági és kríziskezelési hiányosságokat.
Utóbbi különösen aggasztó, mivel egyes esetekben a rendszerek nem reagáltak megfelelően az öngyilkossági gondolatokra utaló kijelentésekre sem.
A kutatók szerint a legnagyobb különbség az emberi terapeutákhoz képest az elszámoltathatóság hiánya. Míg a pszichológusok munkáját szakmai szervezetek és etikai testületek felügyelik, a mesterséges intelligenciával működő „tanácsadókra” jelenleg nem létezik egységes szabályozás.
A szakértők ugyanakkor hangsúlyozzák: a mesterséges intelligenciának lehet szerepe a mentális egészségügyi ellátásban, például a hozzáférés javításában. Ehhez azonban szigorúbb biztonsági szabályokra, alaposabb tesztelésre és világos jogi keretekre van szükség. A kutatók szerint addig érdemes óvatosan kezelni az MI-chatbotok által adott mentális tanácsokat.