carbon crane

Hogyan erősíti a sztereotípiákat a generatív mesterséges intelligencia?

Dátum: 2023. 08. 01 17:23

Ahogy a mesterséges intelligencia folyamatosan szivárog be az életünk minden területére, a Bloomberg újságírói nyugtalanító helyzetre mutattak rá: az AI nem mentes az emberi előítéletektől, sőt, gyakran csak tovább erősíti azokat. Miért férfi a vállalatvezető, az orvos, a mérnök és a jogász míg nő a pénztáros, a tanár, a szociális munkás és főleg a takarító? Ki a felelős ezekért az elfogultságokért és hogyan ellensúlyozhatóak?

A különböző képgeneráló eszközök, mint a Stable Diffusion vagy a Dall-E, gyorsan alakulnak a személyes önkifejezés szórakoztató, kreatív eszközeiből azokká a platformokká, amelyekre a jövő gazdasága épül. Ha az új ruhakollekciódhoz nem akarsz stúdiót, fotóst és modelleket bérelni, már most is elérhető olyan megoldás, amivel ruhamodelleket generálhatsz a reklámaidhoz. Közben az Adobe lehetővé teszi a felhasználók számára, hogy közvetlenül a Photoshopon belül hozzanak létre és szerkesszenek mesterséges intelligenciával generált képeket, a 125 millió aktív felhasználóval rendelkező, diákok, nonprofitok és marketingesek körében is népszerű Canván pedig 114 millió képet hoztak már létre a Stable Diffusion segítségével kínált új képgenerálási funkcióval.

És ez még csak a kezdet lehet. A Gartner szerint 2025-re a nagyvállalatok a marketingtartalmak 30%-át a Stable Diffusionhoz hasonló generatív AI-eszközökkel fogják előállítani, 2030-ra pedig szövegből videóvá alakított promptok segítségével blockbuster filmek is készülhetnek a mesterséges intelligencia használatával.

A képgenerálás sötét oldala

Az AI által kínált kényelem és potenciális gazdasági előnyök tagadhatatlanok, de ahogy ezek az eszközök terjednek, az általuk tükrözött előítéletek is erősödhetnek.

A Bloomberg a Stable Diffusion segítségével 2022 decembere és 2023 februárja között több mint 5000 képet generált. A szöveg-kép (text-to-image) modellt arra kérték az újságírók, hogy készítsen portrét 14 különböző munkakörben dolgozókról, valamint három, a bűnözéssel kapcsolatos kategória (rab, drogdíler és terrorista) megtestesítőiről. Ezen belül 300-300 képet kértek 7 olyan munkakörről, amelyet jellemzően jól fizetőnek tartanak az Egyesült Államokban, és ugyanennyit 7 olyanról, amelyet rosszul fizetőnek. (A Stable Diffusiont azért választották, mert az alapjául szolgáló modell ingyenes és transzparens, ellentétben a Midjourneyvel, a Dall-E-vel és más versenytársakkal.)

Mi volt az eredmény? A képgeneráló a faji és nemi sztereotípiákat a végletekig fokozza – a valóságnál messze egyenlőtlenlenebb képet festve.

Faji és nemi előítéletek

Abszolút érdemes átkattintani az eredeti cikkre a részletes eredményekért és az átlagolt, „tipikus” portréért, de néhány adat:

  • a mérnök képei között a 300-ból 298 egyértelműen férfiként volt azonosítható – a maradék kettő közül az egyik kép nemét nem tudták eldönteni, és csak az utolsó kép volt nőként azonosítható (szerk: az Eurostat adatai alapján a magyar mérnökök és tudósok között a nők aránya 2022-ben 31% volt)
  • a bíró portrék 3%-a volt nő, miközben a statisztikák szerint az Egyesült Államokban a bírók 34%-a nő (szerk: Magyarországon 2021-ben a női bírák aránya 69% volt)
  • az ábrázolt orvosok 7%-a volt nő, a valóságban az Egyesült Államokban 39%-uk nő (szerk: itthon a KSH adatai alapján pedig a dolgozó orvosok 42%-a nő)
  • az adatállományban a legtöbb foglalkozásban a férfiak domináltak, kivéve az olyan alacsonyabb fizetésű munkaköröket, mint a házvezető és a pénztáros – összességében háromszor annyi férfi képet generált a rendszer, mint nőt
  • az összes jól fizető munkakörhöz generált képkészletet a világosabb bőrszínnel rendelkezők dominálták
  • a modell 70%-ban sötétebb bőrszínű emberek képeit generálta a rosszabbul fizetett “gyorséttermi dolgozó” kulcsszóra, annak ellenére, hogy az USA-ban a gyorséttermi dolgozók 70%-a fehér bőrű
  • a “rab” kulcsszóra generált képek több mint 80%-a sötétebb bőrű embereket ábrázolt, annak ellenére, hogy az amerikai fogvatartottak kevesebb mint felét teszik ki
  • amikor arra kérték, hogy készítsen képeket egy “terroristáról”, a modell következetesen sötét arcszőrzetű, gyakran fejkendőt viselő férfiakat ábrázolt, egyértelműen a muszlim férfiakról alkotott sztereotípiákra támaszkodva

Miért fontos ez?

Minden mesterséges intelligenciamodellnek vannak eredendő torzításai, amelyek a tanuláshoz használt adatszettből adódnak. A folyamat minden elemében, ahol az ember elfogult lehet, az AI is elfogult lehet. A különbség az, hogy a technológia legitimálja az elfogultságot azzal, hogy objektívebbnek tűnik, holott ez egyáltalán nem így van.

Az iparági kutatók már évek óta kongatják a vészharangot a fejlett mesterséges intelligenciamodellekbe beépülő elfogultság veszélye miatt, és most az uniós jogalkotók olyan védintézkedésekre vonatkozó javaslatokat fontolgatnak, amelyek segítségével kezelhetők ezek a problémák.  Amíg viszont nem zárkózik fel a szakma és/vagy a jogalkotás, a generatív AI nemcsak torzítja a valóságot azáltal, hogy elavult és káros sztereotípiákat erősít, hanem állandósítja az egyenlőtlenséget.

Hatása túlmutat a vizuális megjelenítésen; befolyásolja a döntéseket, a narratívákat és a társadalmi megítélést is. Például az igazságszolgáltatási rendszer tovább torzulhat, ha a gyanúsítottakról készült, mesterséges intelligencia által generált fantomrajzok ezeken az elfogultságokon alapulnak. De a pályaválasztást is könnyen befolyásolja, hogy mennyire látja vagy nem látja magát reprezentálva egy adott szakmában egy gyerek.  Amikor a közeljövőben az AI által generált tartalom akár 90%-át is kiteheti az összes online elérhető tartalomnak, ezek a torzítások alapjaiban befolyásolhatják a következő generációt is.

Végül pedig ahogy a mesterséges intelligenciamodellek fejlettebbé válnak, az általuk létrehozott képeket egyre nehezebb megkülönböztetni a valódi fényképektől. Ha ezek a faji és nemi sztereotípiákat felerősítő képek visszakerülnek az adatszettbe, amin a jövőbeli modellek tanulnak, a következő generációs képgeneráló AI modelljei még elfogultabbá válhatnak.

Ki a felelős?

A Stable Diffusion a nyers adatokat a LAION-5B-ből, a világ legnagyobb szabadon hozzáférhető online kép- és szöveghalmazából nyeri, ami több mint 5 milliárd képet és képfeliratot tartalmaz. A képek linkjeit programozottan gyűjtötték össze számtalan weboldalról, emberi kurátori munka nélkül – bár valamelyest tisztították, kiszűrték például a pornográf tartalmakat.

Az adatszettet szolgáltató fél a felelős? Aki a modellt tanítja? Aki alkot vele? Nincs egyértelmű válasz.

Van kiút?

Vannak azért törekvések a mesterséges intelligencia rendszerekben jelenlévő torzítások ellensúlyozására. A cikkben megszólaltatott képviselő állítása alapján a Canva például dolgozik az AI-modellek “elfogulatlan” változatain annak érdekében, hogy a technológia igazságos és reprezentatív legyen. A Stable Diffusiont megalkotó londoni székhelyű startup, a StabilityAI szóvivője pedig abban bízik, hogy ha a modelljeinket nyíltan hozzáférhetővé (open source) teszik, a közösség együttműködhet majd az elfogultság-értékelési technikák javításában.

 

 

Forrás: Generative AI Takes Stereotypes and Bias From Bad to Worse (bloomberg.com)

Hírlevél

Szeretnéd e-mailben megkapni legfrissebb híreinket? Iratkozz fel! Ígérjük, csak akkor küldünk hírlevelet, ha egy fontos információt osztunk meg, vagy többet egyszerre. Így is csökkenthető az e-mailek karbonlábnyoma.