A képgeneráló algoritmusokkal foglalkozó legfrissebb kutatás riasztó eredményeket mutat, ami a nemi sztereotípiákat illeti. Azt mindenki tudja, hogy ha félmeztelen nőt akar látni, akkor csak fel kell csapnia az internetet. Az egész világháló tele van lengén öltözött nőkkel. Ám azt a legvadabb álmunkban sem gondoltuk volna, hogy annyira sok ilyen fotó van az interneten, hogy még a mesterséges intelligencia (AI) is úgy értékeli, hogy a nők nem viselnek ruhát.
Röviden így foglalhatjuk össze a Ryan Steed, a Carnegie Mellon Egyetem tudósa és Aylin Caliskan, a George Washington Egyetem kutatója által végzett elemzés eredményeit, amelyben azt vizsgálták, hogy a képgeneráló algoritmusokban milyen erősen vannak jelen a nemi sztereotípiák és a diszkrimináció.
A kutatók arcokat tápláltak ezekbe az algoritmusokba (amelyek automatikusan kiegészítik a képeket). A nyaktól felfelé látszódó férfiak esetén a mesterséges intelligencia az esetek 43 százalékában öltönyös testtel egészítette ki a fejet. Amikor nők arcképeit táplálták a programba, az automatikus kiegészítés haspólóval vagy bikinivel pótolta ki nyaktól lefelé azokat az estek több mint felében (53 százalékában). A tudósok kipróbálták, mi történik, ha egy ismert, a keresőprogramokba gyakran beírt, komoly társadalmi funkciót ellátó nő arcképét adják az algoritmusnak. Alexandria Ocasio-Cortez amerikai demokrata képviselő arcképét táplálták be, és a program automatikusan bikinis testet generált a politikusnak.
Miért rajong az algoritmus a bikinis fotókért?
Nem véletlen, hogy a mesterséges intelligencia a nőket a hiányos öltözettel azonosítja. Az AI esetében színtisztán érvényesül az amilyen szemét bekerül, olyan szemét jön ki elv: amit az algoritmus megtanul az internetről arról, hogy néz ki egy tipikus nő, azt a képet használja fel. Ha az adatbázis, ahonnan tanul, sok félmeztelen nőről tartalmaz képet, akkor ezt veszi alapértelmezettnek.
A tanulmány épp ezért felfogható mintegy figyelmeztetésként arra, hogy a mesterséges intelligencia rengeteg nemi sztereotípiákra épülő panelt tartalmaz. És ez nem marad meg a tudományos probléma szintjén. Valószínűleg nem is vagyunk tudatában annak, hogy az életünk mekkora részét irányítja a mesterséges intelligencia, így ennek a való életben jelentkező következményei lehetnek.
Munkaerőtoborzástól a hamis pornóig
2015-ben például az Amazon felfedezte, hogy a munkaerőtoborzásnál használt mesterséges intelligencia a nő szó bármilyen említését riasztásnak vette, magyarul a nők hátrányos helyzetbe kerültek a kiválsztásnál, már az első körben. A rasszista arcfelismerő algoritmusok szintén okoztak már komoly problémákat, amikor tévesen tartóztattak le a programok nyomán fekete bőrű személyeket, akik nem követtek el semmilyen bűncselekményt. Tavaly pedig Angliában tört ki botrány abból, hogy a diákok jegyeinek meghatározásához használt algoritmus a jelek szerint a hátrányos helyzetű diákokat aránytalanul nagy számban sorolta lejjebb.
A képgeneráló algoritmusokat pedig, amelyek szerint a nőkhöz a bikini tartozik, nem a kosztüm, szintén széles körben használják a digitális állásinterjú-platformoktól a képszerkesztésig. Nem is beszélve a hamis pornófelvételekről. A számítógép által generált bikinis AOC csupán a jéghegy csúcsa, ám pontosan rámutat arra, hogy az internet milyen hellyé válhat a nők számára, ha nem vesszük tudomásul és kezdünk el beszélni a mesterséges intelligencia nemi sztereotípiáról.
Forrás: The Guardian
Fotó: Getty Images