Az iScience folyóiratban november 2-án megjelent új tanulmányban a kutatók azt vizsgálták, hogyan változik az emberek együttműködési hajlandósága, ha az AI-t női, férfi, nem bináris vagy nem megjelölt nemekkel címkézik. A kísérlet résztvevőit a jól ismert gondolatkísérlet, a „Börtön-dilemma” játékára kérték fel. Ebben a játékban két játékos vagy együttműködik, vagy önállóan cselekszik. Ha mindketten együttműködnek, a legjobb eredményt érik el. Ha az egyik próbál együtt működni, a másik viszont nem, az önző játékos jobban jár. Ha egyikük sem törekszik az együttműködésre, mindketten alacsony pontszámot kapnak.
A kutatás szerint az emberek hajlamosabbak kihasználni AI partnerüket, mint az embert.
A résztvevők inkább működtek együtt női, nem bináris vagy nem megjelölt AI-kkal, mert azt várták, hogy a másik fél is együttműködik. A férfi partnerek esetében kevésbé bíztak a kooperációban, különösen a női résztvevők.
Miért veszélyes az AI antropomorfizálása?
A fejlesztők sokszor épp azért ruházzák fel az AI-t névvel vagy nemi identitással, hogy az emberek jobban megbízzanak benne és szívesebben működjenek együtt vele. Azonban, ha nem veszik figyelembe a nemek szerinti diszkrimináció hatását, ez az előítélet tovább erősödhet.
A tanulmány szerint a résztvevők nagyobb valószínűséggel „használták ki” a női, nem bináris vagy nem nemesített AI-partnereket, mint a férfiakat. A férfiak hajlamosabbak voltak kihasználni a partnerüket, és inkább az emberi partnerekkel működtek együtt, mint az AI-kkal. A nők viszont együttműködőbbek voltak, és nem különböztették meg a robotot a valódi embertől.
A kutatók hangsúlyozták: „Bár az AI-partnerekkel szembeni diszkrimináció önmagában nem jelent súlyos etikai kihívást, rossz szokásokhoz vezethet, és fokozhatja a már meglévő nemek szerinti előítéleteket a társadalomban. Az előítéletek megértésével és a felhasználói viselkedés elemzésével a tervezők hatékony, megbízható és igazságos AI-rendszereket hozhatnak létre, amelyek támogatják a társadalmi értékeket.”
Fotó: Pixabay


