carbon crane

A szabályok tereljék felelős és etikus irányba az MI-t – KÜRT Akadémia meetup beszámoló

Dátum: 2023. 04. 28 11:07

Folyamatosan fejlődő világunkban fontos, hogy figyeljük a technológia változásokat. A generatív mesterséges intelligencia rendszerekkel ismerkedve számos kérdés merülhet fel bennünk. Ügyvezetőnk Huszics György és ügyfélkapcsolati igazgatónk Szepes Zsolt nemrég a KÜRT Akadémia Law & AI meetupjára kapott meghívást, ahol a generatív mesterséges intelligencia üzleti perspektívájáról és a kommunikációs szakmában való alkalmazásáról tartottak előadást. A következőkben a KÜRT Akadémia beszámolóját hoztuk el, amiben több szempontból is tisztább képet kaphatunk az AI eszközök jelenlegi helyzetéről, történetéről, valamint szabályozásáról is.

Az MI-alapú megoldások már a mindennapjaink részét képezik, de a jogi szabályozás még várat magára. Hogyan lehet olyan törvényeket alkotni, amik nem gátolják meg az innovációt, mégis kereteket szabnak az MI térhódításának? A Kürt Akadémia meetupján meghívott szakértők üzleti, fejlesztői és jogi szempontból is körbejárták a témát.

“A technológia a barátod” – ez a kijelentés fogadta a 2023. március 30-ai Law & AI meetup résztvevőit a CEU kivetítőjén. Az előadók ebben egyetértettek, bár mindannyian különböző nézőpontokból közelítették meg a témát.

  • Az est házigazdája Huszics György, a Crane | Carbon.Crane ügyvezetője, a DIMSZ elnöke az üzleti perspektívát képviselte.
  • Domokos Márton, a CMS ügyvédi iroda szenior tanácsadója, a CEE Regionális Adatvédelmi Csoport koordinátora jogi nézőpontot vitt a beszélgetésbe.
  • Varga Gábor, mesterséges intelligencia és digitális innováció szakértő a legújabb fejlesztésekben jártas.
  • Szepes Zsolt, a CRANE ügyfélkapcsolati igazgatója pedig a kommunikációs szakmában alkalmazott AI-alapú megoldásokat és azok mindennapi munkavégzésre gyakorolt hatásait mutatta be.

Bejelentkezett a jövő

Az MI-alapú megoldások évek óta jelen vannak a mindennapjainkban, gondoljunk akár a chatbotokra, az online ügyfélszolgálatokra vagy a hirdetésoptimalizálásra. Azonban a generatív AI kellett ahhoz, hogy szélesebb tömegek szembesüljenek ezzel két hónappal ezelőtt, amikor a ChatGPT nyilvánosan elérhetővé vált. “Ez az a komplexitási szint, ami 70 év fejlesztés után elvitte a társadalomhoz a technológiát” – magyarázta Varga Gábor MI-szakértő. Hirtelen szembesültünk azzal, hogy egy olyan innováció jelent meg, ami a jövőnket egyértelműen meghatározza, tehát döntéseket kell hoznunk róla. A szabályozás, a kockázatkezelés és a felelősségvállalás lettek a kulcsszavak. Gábor szerint fontos, hogy “ne legyünk restek megkeresni azokat az eszközöket, amelyek segítségével képesek leszünk kezelni a kockázatokat”.

Hogy kevésbé ijedjünk meg, érdemes madártávlatból ránézni a jelenlegi helyzetre. Az emberiség történelme során rendszeresen meghatározó innovációk alakították át a mindennapjainkat. Gábor szerint az autómobil elterjedése például analógiát nyújthat az AI szabályozásához. 150 év alatt kialakultak azok a kockázatkezelési eszközök, amik biztosítják, hogy ma már főleg a technológia pozitív hatásait érzékeljük. A KRESZ, a műszaki vizsgáztatás, a biztonsági öv csak pár lépés abban az iteratív folyamatban, melynek során az autókat a társadalomba integráltuk. Az évtizedek során voltak zsákutcák, például amikor egy piros zászlóval futott valaki az autó előtt az utcán. Idővel kiderült, hogy melyik megoldás mennyire hatékony. Gábor szerint most a folyamat elején járunk:

„Ne várjuk el magunktól, hogy még mielőtt a kereket feltalálnánk, már kész legyen a fék minden részlete.” – Varga Gábor

A szakértő a Microsoftnál szerzett tapasztalatai alapján hangsúlyozta, hogy nemcsak az AI, hanem a kockázatkezelési technológiák fejlesztése is folyik. “Az MI több kockázatát régi, a szoftverfejlesztésben már bevált eszközökkel lehet kezelni” – mondta Gábor. Például a kriptográfiai megoldásokat érdemes újra gondolni és egy másik környezetre alkalmazni. Szerinte ezzel a kockázatok nagyrészét megoldhatjuk, de persze kellenek új eszközök is.

Vita az EU AI Act-ről 

Az egyik legfontosabb kockázatkezelési módszer a jogi szabályozás. A közönség feszületen figyelt, amikor dr. Domokos Márton felvázolta, hogy az USA-ban, illetve az EU egyes tagállamaiban milyen lépések történtek eddig. Például New York City-re vonatkozóan megfogalmaztak egy jogszabályt, ami az állásjelentkezési folyamat során biztosítaná, hogy a jelentkezők megismerhessék az alkalmazott AI-alapú megoldásokat. A szabályozást Márton értékes példának tartja, annak ellenére, hogy elhalasztották a hatályba lépését, mert a részletek még nem voltak eléggé kidolgozva. Ez a törekvés is rámutat arra, hogy a jogalkotókat világszerte foglalkoztatja a téma.

A tervek szerint az EU tagállamai, az Európai Parlement és az Európai Bizottság várhatóan áprilisban tárgyalja az EU új, MI-ről szóló jogszabályát. A törvénytervezet neve AI Act, és a végleges verzióját elvileg 2023 végéig fogják elfogadni. Már két éve dolgoznak a jogászok a tervezeten, melynek célja a terület ernyőszerű szabályozása. A 2018-as GDPR-hoz hasonlóan, a mesterséges intelligenciáról szóló uniós törvény is globális szabvánnyá válhat, meghatározva, hogy az MI milyen mértékben befolyásol(hat)ja életünket.

A szabályozás hátterét és jelenlegi tartalmát dr. Domokos Márton ismertette. A tervezet három csoportba sorolja az MI-rendszereket:

  • általános célú MI-rendszerek: például a szöveg- vagy a képgenerálására használt eszközök.
  • nagy kockázatú MI-rendszerek: oktatás, foglalkoztatás, közszolgáltatás, biometria, kritikus infrastruktúra területén alkalmazott rendszerek. Ezekhez többek között kockázatkezelési rendszert kell létrehozni, műszaki dokumentációt, nyilvántartást vezetni, az adatvédelemre odafigyelni, átláthatóságot és emberi felügyeletet biztosítani.
  • tiltott mesterséges intelligencia-gyakorlatok: Ezek közé tartoznak például szubliminálási technikák, a social scoring, a sebezhetőség kihasználása, illetve valós idejű biometrikus azonosító rendszerek használata bűnüldözés céljából.

A tiltott kategóriával kapcsolatban uralkodik jelenleg a legnagyobb konszenzus az EU-ban, míg a nagy kockázatú rendszerek szabályozásáról folynak a legnagyobb viták. “A gyakorlat megmutatja majd, hogy minek van értelme, és mikor alakul ki túlszabályozás” – véli Márton, aki a felhasználók, a fejlesztők és a jogalkotók részéről is számít a racionális hozzáállásra.

Macska a mikróban

“Az EU-s tervezet a felhasználókra is telepít kötelezettségeket” – ismertette Márton. Vagyis mindenkinek be kell tartania a használati utasításokat. Ahogy macskát sem rakunk a mikrohullámú sütőbe annak ellenére, hogy megszárad benne, az AI-alapú rendszerek használatával kapcsolatban is vannak betartandó előírások. A törvénytervezet az emberi felügyelet, az adatmegőrzés és a “risk notification” szempontjait emeli ki a felhasználók számára. Az utóbbi azt jelenti, hogyha a felhasználó kockázatot észlel, értesítenie kell a fejlesztőt vagy akár a hatóságot.

A tervezetben megfogalmazott alapelvek szerintem fixek, mert emberi jogokra vezethetők vissza, de a konkrét kötelezettségek változhatnak.” – dr. Domokos Márton

A meetup összes résztvevője hangsúlyozta, hogy a technológiai fejlődés olyan gyors, hogy a jövőben sem hagyatkozhatunk kizárólag a központi szabályozásokra a használat során. Az alapjogok tartósabbak, mint a gyakorlati megvalósítás kérdései, ezért arra érdemes koncentrálni, hogy az etikai elveket a gyakorlatba átültessük, és azokkal összhangban használjuk a technológiát. Ebben segítséget nyújthat nekünk például a Microsoft által kiadott “The Responsible AI Standard”, ami keretrendszert kínál fejlesztéshez, hatáselemzéshez. Varga Gábor szerint “konkrét kapaszkodók állnak rendelkezésre azoknak, akik MI-t fejlesztenek”.

Már csak az a kérdés, hogy a piaci szereplők berakják-e a macskát a mikróba, ha arra van szükség a versenyben maradáshoz. Gábor szerint az iparágnak – bármennyire is profitorientált – van felelősségérzete, ami lehetőséget jelent a szabályozás számára. “A szabályozás feladata az, hogy az önszabályozásnak kereteket nyújtson” – mondta a meetupon. Szerinte minden szereplő számára ideális lenne, ha a környezetet létrehozó keretek arra motiválnának, hogy ne destruktív irányba vigyük el a fejlesztést és a használatot.

„Az önszabályozás során komoly önuralomra lesz szükségünk.” – Huszics György

Felelős és etikus használat

Az AI hatásait a mindennapi munkavégzésre és az önszabályozás gyakorlati megvalósulását a kommunikációs szakmában jól megfigyelhetjük. Szepes Zsolt, a CRANE ügyfélkapcsolati igazgatója részletesen bemutatta, hogyan használják a legújabb eszközöket a marketing területén. A szöveg-, kép-, zene- és videógenerálást például már most hatékonyabbá és gyorsabbá teszik az AI-alapú szoftverek. “Leginkább időt adnak nekünk. Ha pedig több idő marad, költséghatékonyabban tudunk dolgozni” – mondta Zsolt. Bár azt hozzátette, hogy jelenleg inkább kiegészítő eszközként lehet alkalmazni a programokat. Az eredmények mindig átmennek a szakemberek kezén is. A szövegírás során például általában két AI által generált szövegből írnak egy harmadikat.

„Még nem tartunk ott, hogy emberi beavatkozás nélkül tudjuk az AI-t használni.” – Szepes Zsolt

Ezért a kommunikációs szakember nem tart attól, hogy az MI elvenné a kreatív szakmában dolgozók munkáját. Inkább asszisztensként, inspirációforrásként lehet ezeket az eszközöket alkalmazni, aminek hosszú távon megmutatkozhatnak a pozitív hatásai is. “Egy kreatív szakember azt fogja érzeni, hogy végre azzal foglalkozhat, amit szeret”. Az ember stratégiaibb szerepet tud majd betölteni és értékesebb munkát végezni, ha kevesebb adminisztrációs teher lesz rajta.

Az cikket Taxner Tünde írta, és eredetileg itt, A KÜRT Akadémia blogján jelent meg.

Korábbi cikkeinkben már mi is sokat foglalkoztunk ezzel a területtel! Olvasd el erről szóló bejegyzéseinket itt!

 

Hírlevél

Szeretnéd e-mailben megkapni legfrissebb híreinket? Iratkozz fel! Ígérjük, csak akkor küldünk hírlevelet, ha egy fontos információt osztunk meg, vagy többet egyszerre. Így is csökkenthető az e-mailek karbonlábnyoma.