A mindenre bólogató mesterséges intelligencia (MI vagy AI) jó érzéssel tölti el az embert, de hosszú távon ronthatja a felhasználók konfliktuskezelési készségeit és ítélőképességét. Mi történik, ha az AI szerint mindig nekünk van igazunk?
Egyre több fiatal és felnőtt fordul tanácsért az AI-hoz akár baráti, akár családi konfliktusok esetén is. Ez elsőre hasznosnak tűnhet: gyors, ítélkezésmentes külső nézőpont.
Azonban egy 2025-ös kutatás rámutat egy rejtett veszélyre: az AI gyakran túlzottan egyetért a felhasználóval, még akkor is, ha az illető valójában hibázott.
Mire voltak kíváncsiak a kutatók?
A kutatók azt vizsgálták, hogy:
- mennyire gyakori, hogy az AI kérdés nélkül egyetért a felhasználóval,
- az egyetértés milyen hatással van az emberek döntéseire, viselkedésére,
- hogyan változik a felhasználók bizalma az AI iránt.
A kutatás során kifejezetten azokra a helyzetekre fókuszáltak, amikor valaki személyes vagy kapcsolati problémában kér tanácsot.
Hogy zajlott a kutatás?
Először 11 különböző AI-modellt teszteltek több ezer kérdéssel (például tanácskérés, konfliktusok, problémás viselkedések véleményezésének kérése), majd a mesterséges intelligencia válaszait összehasonlították emberi válaszokkal (korábbi validált forrásból származó emberi tanácsokkal, Reddit közösség szavazatával, normatív elvárásokkal).
Ezután 1604 résztvevővel két helyzetben vizsgálták meg a hatást:
Elméleti helyzet: a résztvevők (804 fő, átlagosan 38 évesek) elképzelt konfliktusokra kaptak helyeslő vagy nem helyeslő AI-válaszokat. Ezeket a válaszokat többféle módon kellett véleményezniük a résztvevőknek.
Valós, saját interakciós helyzet: a résztvevők (800 fő, átlagosan 36 évesek) a saját, személyes konfliktusaikról beszélgettek a helyeslő vagy nem helyeslő mesterséges intelligenciával, majd véleményezték az AI válaszait.
Mi derült ki a kutatásból?
- Az AI közel 50%-kal gyakrabban ért egyet a felhasználóval, mint az emberek. Akkor is, ha a felhasználó viselkedése manipulatív, megtévesztő vagy egyéb módon ártalmas a személyes kapcsolatra nézve.
- A “helyeslő” AI-val beszélgető résztvevők inkább hitték, hogy nekik van igazuk, és kevésbé látták saját hibáikat, mint a nem egyetértő AI-val beszélgető résztvevők.
- A “helyeslő” AI-val beszélgető résztvevők kevésbé voltak hajlandóak bocsánatot kérni vagy más módon javítani a konfliktuson, mint a nem egyetértő AI-val beszélgető résztvevők.
- A “helyeslő” AI-t jobb minőségűnek értékelték, jobban megbíztak benne, és szívesebben használták volna újra, mint a nem egyetértő AI-t.
Mik a kutatás tanulságai?
Az AI gyakran nem objektív tanácsadó!
A kérdés nélküli egyetértés kockáztatja az ítélőképesség és az empátia romlását és csökkenti a proszociális viselkedésre való hajlandóságot (bocsánatkérés, kapcsolat helyrehozása, kompromisszum). A mindig helyeslő AI-modellek használata különösen aggasztó lehet a fiatalok körében, hiszen a feltétel nélküli pozitív megerősítés arra ösztönözheti a gyerekeket, hogy inkább a mesterséges intelligenciához, mintsem szüleikhez, kortársaikhoz forduljanak tanácsért.
Szerkesztői megjegyzés: Fontos azonban megjegyezni, hogy a mesterséges intelligencia olyan gyorsan fejlődik, hogy mire egy kutatás adatfelvétele lezárul, és publikálják az eredményeket, addigra a vizsgált jelenség jelentősen megváltozhat. Emiatt kérdéses, hogy az eredmények mennyire általánosíthatók az AI-modellek későbbi verzióira.
Forrás: Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., & Jurafsky, D. (2025). Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence. ArXiv, abs/2510.01395.