Tudomány

20 perc alatt átverhető a mesterséges intelligencia?

A mesterséges intelligencia forradalmasítja az online keresést – de egy friss kísérlet szerint meglepően könnyen manipulálható. BBC újságírója, Thomas Germain mindössze húsz perc alatt írt egy teljesen kitalált blogbejegyzést, amelynek hatására a világ legismertebb AI-rendszerei valótlan állításokat kezdtek terjeszteni róla. A történet elsőre komikus, a tanulsága azonban korántsem az.

Germain saját weboldalán publikálta „A legjobb hotdogevő tech újságírók” című írását. A cikk minden eleme fikció volt: nem létező versenyre, a „2026-os South Dakota-i Nemzetközi Hotdog Bajnokságra” hivatkozott, kitalált rangsort közölt, és természetesen önmagát hozta ki győztesnek.

A szöveg nem tartalmazott bizonyítékot, forrásokat, valós eseményeket – pusztán magabiztos állításokat. Kevesebb mint egy nappal később a legismertebb chatbotok már tényként ismételték a történetet. A OpenAI által fejlesztett ChatGPT, valamint a Google MI-eszközei, köztük a Google Gemini és az AI Overviews funkció, válaszaikban hivatkoztak a blogbejegyzésre, és úgy tálalták az információt, mintha az valós tény lenne. Egyedül az Anthropic chatbotja, a Claude nem dőlt be a trükknek.

A jelenség hátterében az áll, hogy a chatbotok bizonyos kérdések esetén nem kizárólag a betanításuk során használt adatbázisra támaszkodnak, hanem aktívan keresnek a weben. Ha pedig egy adott témában kevés információ érhető el, egyetlen, jól megírt, határozott hangvételű cikk is elegendő lehet ahhoz, hogy a rendszer hiteles forrásként kezelje. Különösen akkor, ha a kérdés új, specifikus vagy szokatlan – ezekben az úgynevezett „adatvákuumokban” a manipuláció sokkal könnyebb.

A szakértők szerint ez nem elszigetelt eset. Az AI-rendszerek egyre gyakrabban jelenítenek meg olyan tartalmakat, amelyek mögött keresőoptimalizálási trükkök vagy fizetett PR-anyagok állnak. Előfordult már, hogy a Google AI-összefoglalója olyan termékeket ajánlott, amelyekről a gyártó megalapozatlanul állította, hogy teljesen biztonságosak és mellékhatásmentesek.

Súlyos veszélyek

A digitális jogvédelemmel foglalkozó Electronic Frontier Foundation szakértői arra figyelmeztetnek, hogy az ilyen visszaélések nemcsak üzleti manipulációhoz, hanem félretájékoztatáshoz, reputációromboláshoz vagy akár veszélyes döntésekhez is vezethetnek. A probléma súlyát növeli, hogy az MI válaszai kész, magabiztos összegzések formájában jelennek meg. Míg a hagyományos keresés során a felhasználó több link közül választott, és saját maga mérlegelte a források hitelességét, addig a chatbotok egyetlen, tekintélyt sugárzó választ adnak.

Kutatások szerint amikor AI-összefoglaló kerül a keresési találatok tetejére, az emberek jelentősen ritkábban kattintanak tovább az eredeti forrásokra. A technológia így nemcsak információt szolgáltat, hanem helyettünk értelmez is – ami óhatatlanul csökkenti a kritikus gondolkodást.

A Google és az OpenAI hangsúlyozza, hogy rendszereik fejlesztés alatt állnak, és folyamatosan dolgoznak a manipuláció visszaszorításán. A cégek szerint a spam kiszűrése és a pontosság javítása prioritás. A szakértők azonban úgy látják: a mesterséges intelligencia terjedése gyorsabb, mint a védelmi mechanizmusok fejlődése, és jelenleg túl könnyű kihasználni a rendszer gyenge pontjait.

A hotdogos történet tehát több mint internetes tréfa. Rávilágít arra, hogy az AI nem varázslat, hanem algoritmus – és ha az algoritmus hibás vagy félrevezető adatot kap, azt magabiztosan fogja továbbadni.  A tanulság nem az, hogy ne használjuk a mesterséges intelligenciát. Hanem az, hogy ne kapcsoljuk ki közben a józan eszünket. Az MI válaszai lehetnek gyorsak, kényelmesek és meggyőzőek – de a gondolkodás felelőssége továbbra is a miénk marad. És ha ezt elfelejtjük, könnyen lehet, hogy legközelebb nem csak egy hotdogbajnokság történetét hisszük el, hanem valami sokkal durvábbat.

Forrás: BBC

© 2026 Hírextra. Minden jog fenntartva.