Erdélyi Olívia az MI-kormányzásról: következetesség, tudományosság, szakértelem, többrétegű szabályozási struktúra
A budapesti Humans in Charge konferencia harmadik témaindító előadását Prof. Dr. Erdélyi J. Olívia tartotta. Olívia az új-zélandi Canterbury Egyetem professzora, a németországi Bonni Egyetem vendégprofesszora, valamint Tilesch György nevével fémjelzett PHI Institute-nél a mesterséges intelligencia etikájával és irányításával kapcsolatos munkák első számú külső munkatársa. A mesterséges intelligencia szabályozása világszerte – a jelenlegi helyzet című előadásában a fő szabályozási problémákra és a lehetséges megoldásokra világított rá.
Nem kell mindenkinek újra feltalálnia a kereket
Erdélyi Olívia szerint az, aki ma az MI-szabályozás területéről tiszta képet szeretne alkotni, az nincs könnyű helyzetben.
„Ha egyetlen szóval jellemezhetném a jelen helyzetet – amely egy rémálom mindenki számára, akinek meg kell felelnie a szabályozásoknak –, akkor ez a szó a következetlenség lenne” – vélekedett a Canterbury Egyetem professzora, aki ezzel egyrészt a rengeteg, illetékességgel rendelkező globális, kontinentális és nemzeti szervezetre, illetve a szabályozási törekvésekből eredő rengeteg megvalósítási tervre és gyakorlatra célzott.
„Ha önök részt vesznek különböző testületi üléseken vagy leülnek bármilyen vitában, bárhol a világon, akkor megtudhatják, hogy az emberiségnek van valamije, amiből mindannyiunknak sok jutott, és ez az ego. Nos, az ego azt akarja, hogy mindenben mi tűnjünk a legjobbnak. Így mindenki hajlamos arra, hogy a saját maga által kitalált dolgokat szeretné látni, ezért is van annyi szervezet, amely ezen a területen tevékenykedik” – mondta.
Erdélyi Olívia jó és követendő példának tartja az Európai Unió kockázatalapú megközelítését, amelyet a készülő mesterségesintelligencia-rendelet megalkotásánál alkalmaznak. Ez egy négyszintű piramis, amelynek a tetején az MI-nek azokat a felhasználási módjait találjuk, amelyek elfogadhatatlanul magas kockázatot jelentenek (például a mesterséges intelligencia használata profilozásra, és ennek felhasználása például hitelkérelmek elbírálásánál vagy állásinterjúk során), az alján pedig értelemszerűen a kockázatmentes felhasználási módok helyezkednek el (pl.: mesterséges intelligencia alkalmazása videojátékok használatának engedélyezésére/tiltására, spamszűrésre, stb.).
A szakértő rámutatott: nem kell mindenkinek újra feltalálnia a kereket.
„Tehát ha (egy ország) a mesterséges intelligenciáról szóló törvény végrehajtásában és néhány nemzeti szabály, tükörszabály kidolgozásában gondolkodik, akkor ez egy (ti. az EU kockázatalapú megközelítése) olyan megközelítés, amelyre már most is támaszkodhat. Nem kell kitalálnia a sajátját. Nem kell új mesterségesintelligenciarendszer-definíciót alkotnia. Higgyék el, vannak országok, amelyek ezt teszik. Tehát ha már van egy olyan definíció a mesterségesintelligencia-rendszerekre, amelyet az uniós MI-jogszabály, az OECD és a G20 elfogadott, akkor nem valószínű, hogy lesz egy másik definíció, amely meghódítja a világot” – érvelt Erdélyi Olívia.
Az előadó a továbbiakban az egyik fő globális szereplő, az OECD (Gazdasági Együttműködési és Fejlesztési Szervezet) mesterséges intelligenciára vonatkozó öt, értékalapú alapelvéről beszélt, abban a vonatkozásban, hogy ezek hogyan illeszkednek az európai uniós, az egyesült államokbeli, kanadai és kínai szabályokban lefektetett elvekhez.
Elmondta, hogy bizonyos OECD-elveknek ezekben az említett országok, illetve közösség szabályozásában nincs közvetlen megfelelőjük, míg más elvek esetében hasonlóság mutatkozik, de kissé eltérő terminológiát használnak. Ezek az apró különbségek azonban főként a gyakorlatban számítanak.
Következetesség és tudományosság
Előadása központi üzenetének „a következetes és tudományosan is pontos terminológiák és taxonómiák használatát” nevezte a magyar származású nemzetközi szakértő.
Szemléltetésül két definíciót írt fel a kivetítőre, és a közönség soraiból kért segítséget, hogy egy jelentkező értelmezze a két meghatározást, amire az a válasz érkezett, hogy azok nem konkrét, nem szabatos definíciók. Aztán így folytatta:
„Amikor egy szobában ülnek politikai döntéshozókkal, ők néha azt mondják: nos, rendben, olyasmit kell kitalálnunk, ami érthető a nagyközönség és a többi politikai döntéshozó számára. Ez teljesen rendben is van, és nem kellene annyira törődnünk a technológiai kifejezésekkel. De ez meg nem igaz, mert ha belegondolunk: ki fogja ezeket a szabályokat végrehajtani? Igen, megvannak a magas szintű irányelvek, ezek lecsorognak a cégekhez, és végül a termékfejlesztő csapatoknál, a programozóknál, más műszaki szakembereknél kötnek ki, és nekik kell végrehajtaniuk ezeket a szabályokat. Ha ön informatikus, és meglát egy ilyen definíciót, megfordul és kirohan a szobából. Ezzel a definícióval nem lehet mit kezdeni. És ez az egyik pont, amit szeretnék szemléltetni, mert a legtöbb döntéshozó nincs tisztában ezzel. Tehát ügyvédi gondolkodásmóddal gondolkodnak, azt gondolják: nos, én szabályozó vagyok, nekem viszonylag általános megközelítésre van szükségem. Ami megint csak igaz. Amikor a szabályozást tervezik, nem kell nagyon specifikusnak lenniük. Néhány szabályozásban általánosnak kell maradniuk, de a megfelelő szavakat kell használniuk. Ellenkező esetben összezavarjuk azokat, akikre a szabályok vonatkoznak, és a szabályzatok nem lesznek hatásosak.”
Hozott egy további példát is arról, hogy a Nemzetközi Szabványügyi Szervezet (ISO) mesterségesintelligencia-bizottságában két éve nem tudnak megegyezni abban, hogyan definiálják az átláthatóság, az elmagyarázhatóság és az értelmezhetőség fogalmakat.
„Az a vicces ebben, hogy van egy fejlesztés alatt álló szabványunk az átláthatóság fejlécével, egy másik, amit kifejezetten elmagyarázhatóságnak neveztünk el. Ezek a szabványok előrehaladott vagy félig előrehaladott stádiumban vannak. És valójában még nem találtuk ki, hogy mi ennek a két fogalomnak a definíciója, vagy valójában három fogalomé. Ezek tehát olyan problémák, amelyek a szabályozás szempontjából kisebb problémáknak tűnnek, de amint a szabványosítás és a még részletesebb végrehajtási szakaszok felé haladunk, elefánttá változnak a szobában.”
Az MI-kormányzás kulcsa a szakértelem
Erdélyi Olívia szerint a kormányzati megközelítést illetően két lehetőség kínálkozik:
„Vagy választunk egy speciális, MI-szabályozó hatóságot, amely az mesterséges intelligenciát érintő ügyekkel foglalkozik, vagy pedig egy meglehetősen decentralizált rendszert választunk, amelyben a szakterület-specifikus ügynökségek (minisztériumok – a szerk.) vennék át a mesterséges intelligenciával kapcsolatos feladatokat” – fogalmazott.
„De minden esetben szükség lesz egy olyan ügynökségre, amely koordinál a többi ügynökség között, mert ez a szabályozás természete, és ha nincs koordináció, a dolgok hajlamosak elromlani. (…) Az egyetlen dolog, amit itt szeretnék hangsúlyozni, az a szakértelem, és nem csak a szabályozási szakértelem, hanem a műszaki, tudományos, gépi tanulási és mesterségesintelligencia-szakértelem. Képesnek kell lenni kommunikálni a szabályokat végrehajtó műszaki szakemberekkel, és ismét a megfelelő kifejezéseket kell használni a megfelelő dolgokra.”
„Az ördög a végrehajtásban rejlik”
A Bonni Egyetem vendégprofesszora kiemelkedően fontosnak tartja, hogy már a szabályozási rendszer meghatározásakor a végrehajtás szemléletében is gondolkodjunk. Itt az absztrakt gondolkodás négy szintjére mutatott rá, kezdve a magas szintű alapelvekkel, folytatva a sort a már specifikusabb, de még szükségképpen általános szabályokon (pl. ilyennek nevezte az EU mesterséges intelligenciáról szóló jogszabályát) és a viszonylag részletes nemzetközi szabványokon át egészen az egyedi, precíz, adott környezetre szabott végrehajtási intézkedésekig (pl.: szervezeten belüli szabályok).
„A szabályozás szükségképpen elvont, míg a végrehajtás nagyon konkrét” – írta fel a kivetítőre Erdélyi Olívia, aki szerint az egyensúly például olyan, többszintű, többrétegű, fokozottan rugalmas keretszabályozások megalkotásával teremthető meg, mint a négyszintű Lámfalussy-eljárás az uniós a pénzügyi piacok területén.
„Végezetül pedig csak annyit szeretnék mondani, hogy kérem, kövessék a józan ész, az értelem szabályait – és ne az egójukat –, mert sok jó megoldás létezik. Vegyék át, amit lehet, tegyenek hozzá a sajátjukból, amit hozzá kell tenni, és akkor azok, akiknek meg kell felelniük a szabályaiknak, meg fogják ezt köszönni” – tanácsolta zárásként Erdélyi Olívia.
Erről az előadóról
Erdélyi Olívia
Egyetemi adjunktus, Christchurch (NZ) és Bonni Egyetemek
Dr. Erdelyi Olivia J. nemzetközileg elismert mesterséges intelligencia etikai és szakpolitikai szakértő és tanácsadó, aki multidiszciplináris háttérrel rendelkezik az informatika, a közgazdaságtan, a jog és a politikatudomány területén.
Munkájának középpontjában a fenntartható szakpolitikák és szilárd szabályozási és kormányzási keretek kialakítása áll, amelyek lehetővé teszik a feltörekvő technológiák, különösen a mesterséges intelligencia előnyös fejlődését és társadalmi elfogadását.
Aktívan részt vesz a nemzetközi mesterséges intelligencia-politikai döntéshozatalban, és tanácsokat ad kormányoknak és szervezeteknek a mesterséges intelligencia felkészültségének eléréséhez vezető úton.
További előadók
Axente
Olívia
Misuraca
Kriisa
György
László
Imre
Andrea
Slooten
Imre
Levente
Benifei