Erdélyi Olívia az MI-kormányzásról: következetesség, tudományosság, szakértelem, többrétegű szabályozási struktúra
A budapesti Humans in Charge konferencia harmadik témaindító előadását Prof. Dr. Erdélyi J. Olívia tartotta. Olívia az új-zélandi Canterbury Egyetem professzora, a németországi Bonni Egyetem vendégprofesszora, valamint Tilesch György nevével fémjelzett PHI Institute-nél a mesterséges intelligencia etikájával és irányításával kapcsolatos munkák első számú külső munkatársa. A mesterséges intelligencia szabályozása világszerte – a jelenlegi helyzet című előadásában a fő szabályozási problémákra és a lehetséges megoldásokra világított rá.
Nem kell mindenkinek újra feltalálnia a kereket
Erdélyi Olívia szerint az, aki ma az MI-szabályozás területéről tiszta képet szeretne alkotni, az nincs könnyű helyzetben.
„Ha egyetlen szóval jellemezhetném a jelen helyzetet – amely egy rémálom mindenki számára, akinek meg kell felelnie a szabályozásoknak –, akkor ez a szó a következetlenség lenne” – vélekedett a Canterbury Egyetem professzora, aki ezzel egyrészt a rengeteg, illetékességgel rendelkező globális, kontinentális és nemzeti szervezetre, illetve a szabályozási törekvésekből eredő rengeteg megvalósítási tervre és gyakorlatra célzott.
„Ha önök részt vesznek különböző testületi üléseken vagy leülnek bármilyen vitában, bárhol a világon, akkor megtudhatják, hogy az emberiségnek van valamije, amiből mindannyiunknak sok jutott, és ez az ego. Nos, az ego azt akarja, hogy mindenben mi tűnjünk a legjobbnak. Így mindenki hajlamos arra, hogy a saját maga által kitalált dolgokat szeretné látni, ezért is van annyi szervezet, amely ezen a területen tevékenykedik” – mondta.
Erdélyi Olívia jó és követendő példának tartja az Európai Unió kockázatalapú megközelítését, amelyet a készülő mesterségesintelligencia-rendelet megalkotásánál alkalmaznak. Ez egy négyszintű piramis, amelynek a tetején az MI-nek azokat a felhasználási módjait találjuk, amelyek elfogadhatatlanul magas kockázatot jelentenek (például a mesterséges intelligencia használata profilozásra, és ennek felhasználása például hitelkérelmek elbírálásánál vagy állásinterjúk során), az alján pedig értelemszerűen a kockázatmentes felhasználási módok helyezkednek el (pl.: mesterséges intelligencia alkalmazása videojátékok használatának engedélyezésére/tiltására, spamszűrésre, stb.).
A szakértő rámutatott: nem kell mindenkinek újra feltalálnia a kereket.
„Tehát ha (egy ország) a mesterséges intelligenciáról szóló törvény végrehajtásában és néhány nemzeti szabály, tükörszabály kidolgozásában gondolkodik, akkor ez egy (ti. az EU kockázatalapú megközelítése) olyan megközelítés, amelyre már most is támaszkodhat. Nem kell kitalálnia a sajátját. Nem kell új mesterségesintelligenciarendszer-definíciót alkotnia. Higgyék el, vannak országok, amelyek ezt teszik. Tehát ha már van egy olyan definíció a mesterségesintelligencia-rendszerekre, amelyet az uniós MI-jogszabály, az OECD és a G20 elfogadott, akkor nem valószínű, hogy lesz egy másik definíció, amely meghódítja a világot” – érvelt Erdélyi Olívia.
Az előadó a továbbiakban az egyik fő globális szereplő, az OECD (Gazdasági Együttműködési és Fejlesztési Szervezet) mesterséges intelligenciára vonatkozó öt, értékalapú alapelvéről beszélt, abban a vonatkozásban, hogy ezek hogyan illeszkednek az európai uniós, az egyesült államokbeli, kanadai és kínai szabályokban lefektetett elvekhez.
Elmondta, hogy bizonyos OECD-elveknek ezekben az említett országok, illetve közösség szabályozásában nincs közvetlen megfelelőjük, míg más elvek esetében hasonlóság mutatkozik, de kissé eltérő terminológiát használnak. Ezek az apró különbségek azonban főként a gyakorlatban számítanak.
Következetesség és tudományosság
Előadása központi üzenetének „a következetes és tudományosan is pontos terminológiák és taxonómiák használatát” nevezte a magyar származású nemzetközi szakértő.
Szemléltetésül két definíciót írt fel a kivetítőre, és a közönség soraiból kért segítséget, hogy egy jelentkező értelmezze a két meghatározást, amire az a válasz érkezett, hogy azok nem konkrét, nem szabatos definíciók. Aztán így folytatta:
„Amikor egy szobában ülnek politikai döntéshozókkal, ők néha azt mondják: nos, rendben, olyasmit kell kitalálnunk, ami érthető a nagyközönség és a többi politikai döntéshozó számára. Ez teljesen rendben is van, és nem kellene annyira törődnünk a technológiai kifejezésekkel. De ez meg nem igaz, mert ha belegondolunk: ki fogja ezeket a szabályokat végrehajtani? Igen, megvannak a magas szintű irányelvek, ezek lecsorognak a cégekhez, és végül a termékfejlesztő csapatoknál, a programozóknál, más műszaki szakembereknél kötnek ki, és nekik kell végrehajtaniuk ezeket a szabályokat. Ha ön informatikus, és meglát egy ilyen definíciót, megfordul és kirohan a szobából. Ezzel a definícióval nem lehet mit kezdeni. És ez az egyik pont, amit szeretnék szemléltetni, mert a legtöbb döntéshozó nincs tisztában ezzel. Tehát ügyvédi gondolkodásmóddal gondolkodnak, azt gondolják: nos, én szabályozó vagyok, nekem viszonylag általános megközelítésre van szükségem. Ami megint csak igaz. Amikor a szabályozást tervezik, nem kell nagyon specifikusnak lenniük. Néhány szabályozásban általánosnak kell maradniuk, de a megfelelő szavakat kell használniuk. Ellenkező esetben összezavarjuk azokat, akikre a szabályok vonatkoznak, és a szabályzatok nem lesznek hatásosak.”
Hozott egy további példát is arról, hogy a Nemzetközi Szabványügyi Szervezet (ISO) mesterségesintelligencia-bizottságában két éve nem tudnak megegyezni abban, hogyan definiálják az átláthatóság, az elmagyarázhatóság és az értelmezhetőség fogalmakat.
„Az a vicces ebben, hogy van egy fejlesztés alatt álló szabványunk az átláthatóság fejlécével, egy másik, amit kifejezetten elmagyarázhatóságnak neveztünk el. Ezek a szabványok előrehaladott vagy félig előrehaladott stádiumban vannak. És valójában még nem találtuk ki, hogy mi ennek a két fogalomnak a definíciója, vagy valójában három fogalomé. Ezek tehát olyan problémák, amelyek a szabályozás szempontjából kisebb problémáknak tűnnek, de amint a szabványosítás és a még részletesebb végrehajtási szakaszok felé haladunk, elefánttá változnak a szobában.”
Az MI-kormányzás kulcsa a szakértelem
Erdélyi Olívia szerint a kormányzati megközelítést illetően két lehetőség kínálkozik:
„Vagy választunk egy speciális, MI-szabályozó hatóságot, amely az mesterséges intelligenciát érintő ügyekkel foglalkozik, vagy pedig egy meglehetősen decentralizált rendszert választunk, amelyben a szakterület-specifikus ügynökségek (minisztériumok – a szerk.) vennék át a mesterséges intelligenciával kapcsolatos feladatokat” – fogalmazott.
„De minden esetben szükség lesz egy olyan ügynökségre, amely koordinál a többi ügynökség között, mert ez a szabályozás természete, és ha nincs koordináció, a dolgok hajlamosak elromlani. (…) Az egyetlen dolog, amit itt szeretnék hangsúlyozni, az a szakértelem, és nem csak a szabályozási szakértelem, hanem a műszaki, tudományos, gépi tanulási és mesterségesintelligencia-szakértelem. Képesnek kell lenni kommunikálni a szabályokat végrehajtó műszaki szakemberekkel, és ismét a megfelelő kifejezéseket kell használni a megfelelő dolgokra.”
„Az ördög a végrehajtásban rejlik”
A Bonni Egyetem vendégprofesszora kiemelkedően fontosnak tartja, hogy már a szabályozási rendszer meghatározásakor a végrehajtás szemléletében is gondolkodjunk. Itt az absztrakt gondolkodás négy szintjére mutatott rá, kezdve a magas szintű alapelvekkel, folytatva a sort a már specifikusabb, de még szükségképpen általános szabályokon (pl. ilyennek nevezte az EU mesterséges intelligenciáról szóló jogszabályát) és a viszonylag részletes nemzetközi szabványokon át egészen az egyedi, precíz, adott környezetre szabott végrehajtási intézkedésekig (pl.: szervezeten belüli szabályok).
„A szabályozás szükségképpen elvont, míg a végrehajtás nagyon konkrét” – írta fel a kivetítőre Erdélyi Olívia, aki szerint az egyensúly például olyan, többszintű, többrétegű, fokozottan rugalmas keretszabályozások megalkotásával teremthető meg, mint a négyszintű Lámfalussy-eljárás az uniós a pénzügyi piacok területén.
„Végezetül pedig csak annyit szeretnék mondani, hogy kérem, kövessék a józan ész, az értelem szabályait – és ne az egójukat –, mert sok jó megoldás létezik. Vegyék át, amit lehet, tegyenek hozzá a sajátjukból, amit hozzá kell tenni, és akkor azok, akiknek meg kell felelniük a szabályaiknak, meg fogják ezt köszönni” – tanácsolta zárásként Erdélyi Olívia.
Erről az előadóról
Erdélyi Olívia
Egyetemi adjunktus, Christchurch (NZ) és Bonni Egyetemek
Dr. Erdélyi Olívia J. nemzetközileg elismert mesterségesintelligencia-etikai és szakpolitikai szakértő és tanácsadó, aki multidiszciplináris háttérrel rendelkezik az informatika, a közgazdaságtan, a jog és a politikatudomány területén.
Munkája középpontjában a fenntartható politikák, valamint a szilárd szabályozási és irányítási keretek kialakítása áll, amelyek lehetővé teszik a feltörekvő technológiák, különösen a mesterséges intelligencia előnyös fejlődését és társadalmi elfogadását.
Aktívan részt vesz a mesterséges intelligenciával kapcsolatos nemzetközi politikai döntéshozatalban, és tanácsokat ad kormányoknak és szervezeteknek, hogy azok felkészülhessenek a mesterséges intelligencia okozta kihívásokra.
További előadók
Axente
Olívia
Misuraca
Kriisa
György
László
Imre
Andrea
Slooten
Imre
Levente
Benifei