“Rosszat tettél? Nem a te hibád!” A mindig igazat adó AI veszélyei

2026.03.27.

A mindenre bólogató mesterséges intelligencia (MI vagy AI) jó érzéssel tölti el az embert, de hosszú távon ronthatja a felhasználók konfliktuskezelési készségeit és ítélőképességét. Mi történik, ha az AI szerint mindig nekünk van igazunk?

Egyre több fiatal és felnőtt fordul tanácsért az AI-hoz akár baráti, akár családi konfliktusok esetén is. Ez elsőre hasznosnak tűnhet: gyors, ítélkezésmentes külső nézőpont.

Azonban egy 2025-ös kutatás rámutat egy rejtett veszélyre: az AI gyakran túlzottan egyetért a felhasználóval, még akkor is, ha az illető valójában hibázott.

Mire voltak kíváncsiak a kutatók?

A kutatók azt vizsgálták, hogy:

  • mennyire gyakori, hogy az AI kérdés nélkül egyetért a felhasználóval,
  • az egyetértés milyen hatással van az emberek döntéseire, viselkedésére,
  • hogyan változik a felhasználók bizalma az AI iránt.

A kutatás során kifejezetten azokra a helyzetekre fókuszáltak, amikor valaki személyes vagy kapcsolati problémában kér tanácsot.

Hogy zajlott a kutatás?

Először 11 különböző AI-modellt teszteltek több ezer kérdéssel (például tanácskérés, konfliktusok, problémás viselkedések véleményezésének kérése), majd a mesterséges intelligencia válaszait összehasonlították emberi válaszokkal (korábbi validált forrásból származó emberi tanácsokkal, Reddit közösség szavazatával, normatív elvárásokkal).

Ezután 1604 résztvevővel két helyzetben vizsgálták meg a hatást:

Elméleti helyzet: a résztvevők (804 fő, átlagosan 38 évesek) elképzelt konfliktusokra kaptak helyeslő vagy nem helyeslő AI-válaszokat. Ezeket a válaszokat többféle módon kellett véleményezniük a résztvevőknek.

Valós, saját interakciós helyzet: a résztvevők (800 fő, átlagosan 36 évesek) a saját, személyes konfliktusaikról beszélgettek a helyeslő vagy nem helyeslő mesterséges intelligenciával, majd véleményezték az AI válaszait.

Mi derült ki a kutatásból?

  1. Az AI közel 50%-kal gyakrabban ért egyet a felhasználóval, mint az emberek. Akkor is, ha a felhasználó viselkedése manipulatív, megtévesztő vagy egyéb módon ártalmas a személyes kapcsolatra nézve.
  2. A “helyeslő” AI-val beszélgető résztvevők inkább hitték, hogy nekik van igazuk, és kevésbé látták saját hibáikat, mint a nem egyetértő AI-val beszélgető résztvevők.
  3. A “helyeslő” AI-val beszélgető résztvevők kevésbé voltak hajlandóak bocsánatot kérni vagy más módon javítani a konfliktuson, mint a nem egyetértő AI-val beszélgető résztvevők.
  4. A “helyeslő” AI-t jobb minőségűnek értékelték, jobban megbíztak benne, és szívesebben használták volna újra, mint a nem egyetértő AI-t.

Mik a kutatás tanulságai?

Az AI gyakran nem objektív tanácsadó!

A kérdés nélküli egyetértés kockáztatja az ítélőképesség és az empátia romlását és csökkenti a proszociális viselkedésre való hajlandóságot (bocsánatkérés, kapcsolat helyrehozása, kompromisszum). A mindig helyeslő AI-modellek használata különösen aggasztó lehet a fiatalok körében, hiszen a feltétel nélküli pozitív megerősítés arra ösztönözheti a gyerekeket, hogy inkább a mesterséges intelligenciához, mintsem szüleikhez, kortársaikhoz forduljanak tanácsért.

Szerkesztői megjegyzés: Fontos azonban megjegyezni, hogy a mesterséges intelligencia olyan gyorsan fejlődik, hogy mire egy kutatás adatfelvétele lezárul, és publikálják az eredményeket, addigra a vizsgált jelenség jelentősen megváltozhat. Emiatt kérdéses, hogy az eredmények mennyire általánosíthatók az AI-modellek későbbi verzióira.

Forrás: Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., & Jurafsky, D. (2025). Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence. ArXiv, abs/2510.01395.

Másról is olvasnál? A hírlevél értetek van, ezért bátran írjátok meg nekünk, milyen témával, tartalomtípussal találkoznátok szívesen!

Sütik
Ez a weboldal sütiket (cookie) használ a felhasználói élmény fokozása érdekében.