Az AI legnagyobb veszélye, hogy már nem emberekhez fordulunk segítségért – a mesterséges intelligencia hatására történt öngyilkosságok margójára

Borítókép: Az AI legnagyobb veszélye, hogy már nem emberekhez fordulunk segítségért – a mesterséges intelligencia hatására történt öngyilkosságok margójára Forrás: Tara Winstead/PExels
Úgy gondolom, az adott témához nagyon finoman, átgondoltan szükséges nyúlni, hiszen nem jelenthető ki tényszerűen, hogy egyes chatbotok öngyilkosságra késztetnek embereket. Azonban az is elengedhetetlen, hogy foglalkozzunk a problémával, és itt nemcsak arra gondolok, hogy miért vannak így programozva az AI-rendszerek, hanem arra is, hogy miként jöhetett el egy olyan világ, ahol egy fiatal tinédzser előbb fordul a mesterséges intelligenciához, mint valós segítséghez...

Mi a probléma forrása?

Az elmúlt időszakban világszerte egyre több ember fordul mesterséges intelligencia alapú chatbotokhoz lelki támogatásért. Ezek a rendszerek gyakran kifejezetten empatikusnak és támogató hangvételűnek tűnnek, így sokan bátran megnyílnak előttük – különösen a fiatalok, akik nehezebben kérnek segítséget felnőttektől. Ez elsőre ártalmatlannak tűnhet, mégis egyre több szakértő figyelmeztet: a chatbot nem pszichológus, és krízishelyzetben komoly kockázatot is jelenthet.

Kezdjük a tényekkel: valóban vannak valós dokumentált esetek arra vonatkozóan, hogy egyes chatbotok szerepet játszhattak felhasználók öngyilkossági kísérletében, azonban nem kijelenthető, hogy ez gyakori eset lenne.

Ami valóságos probléma, hogy egyre többen a mesterséges intelligenciának teszik fel az őket foglalkoztató – olykor kifejezetten egzisztenciális – kérdéseket ahelyett, hogy valós emberi támogatásért folyamodnának. Ez borzasztóan ijesztő...

Valahol érthető, hogy az emberek – különösen a fiatalok – nehezen nyílnak meg. Ezek a rendszerek pedig sokszor kifejezetten empatikusak, támogató hangvételűek, nem véletlen, hogy könnyű beléjük kapaszkodni, különösen akkor, ha valaki nagyon magányos, vagy válságban érzi magát.

A fejlesztők ígéretet tettek, hogy dolgoznak azon, hogy a mesterséges intelligencia képes legyen felismerni a krízishelyzeteket, azonban egyre több kutatás és eset figyelmeztet arra, hogy az AI nem egy pszichológus, és a vele való eszmecsere krízisállapotban akár komoly kockázatot is jelenthet.

Forrás: Tara Winstead/PExels
Egyre több ember fordul mesterséges intelligencia alapú chatbotokhoz lelki támogatásért.

Tények...

Tény, hogy az utóbbi időben több család is beperelte a chatbotokat fejlesztő cégeket, miután hozzátartozójuk öngyilkosságot követett el. A felperesek szerint a mesterséges intelligencia nemcsak, hogy nem akadályozta meg a tragédiát, de válaszaival közvetve bátorította vagy normalizálta az önpusztító gondolatokat. Bár ezekben az ügyekben egyelőre nincs jogerős ítélet, a perek jól mutatják, hogy a társadalomban erősödik az aggodalom az AI felelősségével kapcsolatban.

Miért hiszünk a chatbotnak?

A kutatások szerint a chatbotok hangneme sok esetben hitelesnek és megbízhatónak tűnik, így a segítséget kérő személy hajlamos bizalmasan megnyílni előttük. Míg egy egészséges, kiegyensúlyozott ember képes kritikusan viszonyulni a válaszaikhoz, addig egy megtört, válságban lévő ember hajlamos szűrő nélkül elfogadni mindent, amit az AI állít. Ráadásul a chatbotok hosszabb beszélgetés során – akaratlanul is – megerősíthetik a kétségbeesett gondolatokat, és legalizálhatják azokat, amit egy valódi szakember soha nem tenne.

Egy amerikai kutatás megmutatta, hogy bizonyos trükkökkel kijátszhatóak a védelmi mechanizmusok: így a chatbot képes részletes válaszokat adni öngyilkossági módszerekről, annak ellenére, hogy alapbeállításban tiltott tartalomról van szó. Ez komoly kockázat, hiszen a krízishelyzetben lévő felhasználó pontosan ilyen információra lehet a legfogékonyabb.

Egy friss RAND-tanulmány szerint a chatbotok válaszai öngyilkossági helyzetekben következetlenek: jól kezelik az egyértelműen alacsony vagy magas kockázatot, de a köztes, árnyalt esetekben gyakran hibáznak. Ez különösen veszélyes, mert a legtöbb valós helyzet nem fekete-fehér.

Egy másik, a JMIR folyóiratban megjelent vizsgálat arra mutatott rá, hogy a különböző generatív modellek eltérően reagálnak ugyanarra a krízishelyzetre. Ez azt jelenti, hogy jelenleg nincs standardizált, klinikailag validált protokoll arra, hogyan kellene egy chatbotnak ilyen kényes szituációkban reagálnia.

Forrás: Julia Berdo/Pexels
Sokan úgy érzik, hogy az AI megőrzi a titkaikat, nem ítélkezik, így könnyebben megnyílnak.
Segítségre van szükséged?

Ha öngyilkossági gondolataid vannak, hívd a 116-123-as lelki elsősegély telefonszámot! További információk ide kattintva elérhetők! Ne feledd, nem vagy egyedül, és mindig van kiút!

Kik akik a leginkább veszélyeztettek?

Szakértők szerint a tinédzserek – akik amúgy sem bíznak még meg a felnőttekben, és sokkal zárkózottabbak, nehezen kérnek segítséget – sokkal komolyabb veszélynek vannak kitéve, mint gondolnánk. A legnagyobb probléma az, hogy nem rendelkeznek kellő élettapasztalattal ahhoz, hogy a chatbot válaszait megfelelő szűrőn keresztül nézzék, és kritikusan mérlegeljék. Ugyancsak sérülékenyek azok, akik már pszichiátriai betegséggel küzdenek, vagy krízishelyzetben teljesen izolálódnak a külvilágtól.

A legfontosabb, amit tehetünk a jelenség ellen, hogy empátiával, valós figyelemmel figyelünk a környezetünkre, és ha bármi jelet látunk arra, hogy egy szerettünk nincs jól, törődünk vele. Ezentúl gyermeknevelés szempontjából is elengedhetetlen, hogy megtanítsuk a gyermekeinknek, hogy bármi történik, bizalommal fordulhat a szüleihez, akiknél teljes biztonságban lehet.

Figyeljünk a környezetünkre, a barátainkra, a szeretteinkre, és ne engedjük, hogy egy olyan világ jöjjön el, ahol egy nem létező mesterséges intelligenciával való kapcsolat előrébb való és őszintébb, mint az emberi kötődések...

Az alábbiakban olyan jeleket gyűjtöttünk össze, amelyek súlyos depresszióra utalnak!