A videó angol és magyar nyelvű feliratokat tartalmaz. A feliratok elsődleges nyelve a magyar, amely alapértelmezés szerint be van kapcsolva. Ha angolra szeretné váltani, kérjük, kattintson a videólejátszó jobb alsó sarkában található „Beállítások” ikonra, válassza a „Feliratok” menüpontot, és a magyar helyett válassza az angol nyelvet.

Erdélyi Olívia az MI-kormányzásról: következetesség, tudományosság, szakértelem, többrétegű szabályozási struktúra

A budapesti Humans in Charge konferencia harmadik témaindító előadását Prof. Dr. Erdélyi J. Olívia tartotta. Olívia az új-zélandi Canterbury Egyetem professzora, a németországi Bonni Egyetem vendégprofesszora, valamint Tilesch György nevével fémjelzett PHI Institute-nél a mesterséges intelligencia etikájával és irányításával kapcsolatos munkák első számú külső munkatársa. A mesterséges intelligencia szabályozása világszerte – a jelenlegi helyzet című előadásában a fő szabályozási problémákra és a lehetséges megoldásokra világított rá.

Nem kell mindenkinek újra feltalálnia a kereket

Erdélyi Olívia szerint az, aki ma az MI-szabályozás területéről tiszta képet szeretne alkotni, az nincs könnyű helyzetben.

„Ha egyetlen szóval jellemezhetném a jelen helyzetet – amely egy rémálom mindenki számára, akinek meg kell felelnie a szabályozásoknak –, akkor ez a szó a következetlenség lenne” – vélekedett a Canterbury Egyetem professzora, aki ezzel egyrészt a rengeteg, illetékességgel rendelkező globális, kontinentális és nemzeti szervezetre, illetve a szabályozási törekvésekből eredő rengeteg megvalósítási tervre és gyakorlatra célzott.

„Ha önök részt vesznek különböző testületi üléseken vagy leülnek bármilyen vitában, bárhol a világon, akkor megtudhatják, hogy az emberiségnek van valamije, amiből mindannyiunknak sok jutott, és ez az ego. Nos, az ego azt akarja, hogy mindenben mi tűnjünk a legjobbnak. Így mindenki hajlamos arra, hogy a saját maga által kitalált dolgokat szeretné látni, ezért is van annyi szervezet, amely ezen a területen tevékenykedik” – mondta.

Erdélyi Olívia jó és követendő példának tartja az Európai Unió kockázatalapú megközelítését, amelyet a készülő mesterségesintelligencia-rendelet megalkotásánál alkalmaznak. Ez egy négyszintű piramis, amelynek a tetején az MI-nek azokat a felhasználási módjait találjuk, amelyek elfogadhatatlanul magas kockázatot jelentenek (például a mesterséges intelligencia használata profilozásra, és ennek felhasználása például hitelkérelmek elbírálásánál vagy állásinterjúk során), az alján pedig értelemszerűen a kockázatmentes felhasználási módok helyezkednek el (pl.: mesterséges intelligencia alkalmazása videojátékok használatának engedélyezésére/tiltására, spamszűrésre, stb.).

A szakértő rámutatott: nem kell mindenkinek újra feltalálnia a kereket.

„Tehát ha (egy ország) a mesterséges intelligenciáról szóló törvény végrehajtásában és néhány nemzeti szabály, tükörszabály kidolgozásában gondolkodik, akkor ez egy (ti. az EU kockázatalapú megközelítése) olyan megközelítés, amelyre már most is támaszkodhat. Nem kell kitalálnia a sajátját. Nem kell új mesterségesintelligenciarendszer-definíciót alkotnia. Higgyék el, vannak országok, amelyek ezt teszik. Tehát ha már van egy olyan definíció a mesterségesintelligencia-rendszerekre, amelyet az uniós MI-jogszabály, az OECD és a G20 elfogadott, akkor nem valószínű, hogy lesz egy másik definíció, amely meghódítja a világot” – érvelt Erdélyi Olívia.

Az előadó a továbbiakban az egyik fő globális szereplő, az OECD (Gazdasági Együttműködési és Fejlesztési Szervezet) mesterséges intelligenciára vonatkozó öt, értékalapú alapelvéről beszélt, abban a vonatkozásban, hogy ezek hogyan illeszkednek az európai uniós, az egyesült államokbeli, kanadai és kínai szabályokban lefektetett elvekhez.

Elmondta, hogy bizonyos OECD-elveknek ezekben az említett országok, illetve közösség szabályozásában nincs közvetlen megfelelőjük, míg más elvek esetében hasonlóság mutatkozik, de kissé eltérő terminológiát használnak. Ezek az apró különbségek azonban főként a gyakorlatban számítanak.

Következetesség és tudományosság

Előadása központi üzenetének „a következetes és tudományosan is pontos terminológiák és taxonómiák használatát” nevezte a magyar származású nemzetközi szakértő.

Szemléltetésül két definíciót írt fel a kivetítőre, és a közönség soraiból kért segítséget, hogy egy jelentkező értelmezze a két meghatározást, amire az a válasz érkezett, hogy azok nem konkrét, nem szabatos definíciók. Aztán így folytatta:

„Amikor egy szobában ülnek politikai döntéshozókkal, ők néha azt mondják: nos, rendben, olyasmit kell kitalálnunk, ami érthető a nagyközönség és a többi politikai döntéshozó számára. Ez teljesen rendben is van, és nem kellene annyira törődnünk a technológiai kifejezésekkel. De ez meg nem igaz, mert ha belegondolunk: ki fogja ezeket a szabályokat végrehajtani? Igen, megvannak a magas szintű irányelvek, ezek lecsorognak a cégekhez, és végül a termékfejlesztő csapatoknál, a programozóknál, más műszaki szakembereknél kötnek ki, és nekik kell végrehajtaniuk ezeket a szabályokat. Ha ön informatikus, és meglát egy ilyen definíciót, megfordul és kirohan a szobából. Ezzel a definícióval nem lehet mit kezdeni. És ez az egyik pont, amit szeretnék szemléltetni, mert a legtöbb döntéshozó nincs tisztában ezzel. Tehát ügyvédi gondolkodásmóddal gondolkodnak, azt gondolják: nos, én szabályozó vagyok, nekem viszonylag általános megközelítésre van szükségem. Ami megint csak igaz. Amikor a szabályozást tervezik, nem kell nagyon specifikusnak lenniük. Néhány szabályozásban általánosnak kell maradniuk, de a megfelelő szavakat kell használniuk. Ellenkező esetben összezavarjuk azokat, akikre a szabályok vonatkoznak, és a szabályzatok nem lesznek hatásosak.”

Hozott egy további példát is arról, hogy a Nemzetközi Szabványügyi Szervezet (ISO) mesterségesintelligencia-bizottságában két éve nem tudnak megegyezni abban, hogyan definiálják az átláthatóság, az elmagyarázhatóság és az értelmezhetőség fogalmakat.

„Az a vicces ebben, hogy van egy fejlesztés alatt álló szabványunk az átláthatóság fejlécével, egy másik, amit kifejezetten elmagyarázhatóságnak neveztünk el. Ezek a szabványok előrehaladott vagy félig előrehaladott stádiumban vannak. És valójában még nem találtuk ki, hogy mi ennek a két fogalomnak a definíciója, vagy valójában három fogalomé. Ezek tehát olyan problémák, amelyek a szabályozás szempontjából kisebb problémáknak tűnnek, de amint a szabványosítás és a még részletesebb végrehajtási szakaszok felé haladunk, elefánttá változnak a szobában.”

Az MI-kormányzás kulcsa a szakértelem

Erdélyi Olívia szerint a kormányzati megközelítést illetően két lehetőség kínálkozik:

„Vagy választunk egy speciális, MI-szabályozó hatóságot, amely az mesterséges intelligenciát érintő ügyekkel foglalkozik, vagy pedig egy meglehetősen decentralizált rendszert választunk, amelyben a szakterület-specifikus ügynökségek (minisztériumok – a szerk.) vennék át a mesterséges intelligenciával kapcsolatos feladatokat” – fogalmazott.

„De minden esetben szükség lesz egy olyan ügynökségre, amely koordinál a többi ügynökség között, mert ez a szabályozás természete, és ha nincs koordináció, a dolgok hajlamosak elromlani. (…) Az egyetlen dolog, amit itt szeretnék hangsúlyozni, az a szakértelem, és nem csak a szabályozási szakértelem, hanem a műszaki, tudományos, gépi tanulási és mesterségesintelligencia-szakértelem. Képesnek kell lenni kommunikálni a szabályokat végrehajtó műszaki szakemberekkel, és ismét a megfelelő kifejezéseket kell használni a megfelelő dolgokra.”

„Az ördög a végrehajtásban rejlik”

A Bonni Egyetem vendégprofesszora kiemelkedően fontosnak tartja, hogy már a szabályozási rendszer meghatározásakor a végrehajtás szemléletében is gondolkodjunk. Itt az absztrakt gondolkodás négy szintjére mutatott rá, kezdve a magas szintű alapelvekkel, folytatva a sort a már specifikusabb, de még szükségképpen általános szabályokon (pl. ilyennek nevezte az EU mesterséges intelligenciáról szóló jogszabályát) és a viszonylag részletes nemzetközi szabványokon át egészen az egyedi, precíz, adott környezetre szabott végrehajtási intézkedésekig (pl.: szervezeten belüli szabályok).

„A szabályozás szükségképpen elvont, míg a végrehajtás nagyon konkrét” – írta fel a kivetítőre Erdélyi Olívia, aki szerint az egyensúly például olyan, többszintű, többrétegű, fokozottan rugalmas keretszabályozások megalkotásával teremthető meg, mint a négyszintű Lámfalussy-eljárás az uniós a pénzügyi piacok területén.

„Végezetül pedig csak annyit szeretnék mondani, hogy kérem, kövessék a józan ész, az értelem szabályait – és ne az egójukat –, mert sok jó megoldás létezik. Vegyék át, amit lehet, tegyenek hozzá a sajátjukból, amit hozzá kell tenni, és akkor azok, akiknek meg kell felelniük a szabályaiknak, meg fogják ezt köszönni” – tanácsolta zárásként Erdélyi Olívia.

Erről az előadóról

Erdélyi Olívia

Egyetemi adjunktus, Christchurch (NZ) és Bonni Egyetemek

Dr. Erdélyi Olívia J. nemzetközileg elismert mesterségesintelligencia-etikai és szakpolitikai szakértő és tanácsadó, aki multidiszciplináris háttérrel rendelkezik az informatika, a közgazdaságtan, a jog és a politikatudomány területén.

Munkája középpontjában a fenntartható politikák, valamint a szilárd szabályozási és irányítási keretek kialakítása áll, amelyek lehetővé teszik a feltörekvő technológiák, különösen a mesterséges intelligencia előnyös fejlődését és társadalmi elfogadását.

Aktívan részt vesz a mesterséges intelligenciával kapcsolatos nemzetközi politikai döntéshozatalban, és tanácsokat ad kormányoknak és szervezeteknek, hogy azok felkészülhessenek a mesterséges intelligencia okozta kihívásokra.

További előadók

Beszédek

A Humans in Charge – Felelősségteljes irányítás a mesterséges intelligencia korában című konferencián Tilesch György nemzetközi szakértő, a PHI Institute for Augmented Intelligence alapító elnöke a technológia, a szabályozás és a társadalmi befogadás konvergenciáját hangsúlyozta. Kifejtette, hogy proaktív tervezésre van szükség, és remélte, hogy a konferencián elhangzott hasznos viták segítenek Magyarországnak felkészülni a 2024-es EU-elnökségre.
Maria Luciana Axente, a mesterséges intelligencia etikájának elismert szakértője és a gyermekek jogainak szószólója a „Human in Charge" című konferencián tartott előadást, amelynek középpontjában a gyermekek védelme a digitális korban állt. Nem vitatván, hogy a mesterséges intelligencia az oktatásban és az egészségügyben nagy lehetőségeket kínál, figyelmeztetett az árnyoldalaira is, egyebek mellett a gyermekkori fejlődéshez elengedhetetlen emberi interakciók csökkenésére. Axente kiemelte a figyelemre méltó erőfeszítéseket, például az UNICEF „AI for Children" kezdeményezését, amelynek célja, hogy választ adjon a mesterséges intelligencia és a gyermekek biztonsága körül felmerülő etikai kérdésekre.
A Nemzeti Média- és Hírközlési Hatóság elnöke hangsúlyozta, együttműködésre van szükség a kutatók, fejlesztők és döntéshozók közöttiaz etikus mesterséges intelligencia fejlesztéséhez és használatához. Miközben a mesterséges intelligencia nagy lehetőségeket rejt magában az életminőség és az emberi hatékonyság javítására, jelentős kihívásokat is felvet, különösen a digitális valóságba vetett hitet aláásó deepfake technológiák miatt. Koltay a mesterséges intelligencia jogi következményeinek, az adatvédelemnek és a létfontosságú etikai normáknak a további vizsgálatára szólított fel.
Gianluca Misuraca olasz kutató és az AI4GOV alapítója a „Humans in Charge" konferencián beszélt a mesterséges intelligencia irányításáról és a közszféra létfontosságú szerepéről. Hangsúlyozta: a mesterséges intelligencia lehetséges előnyeinek és kockázatainak kezelése a közszolgáltatásokban és társadalmi szinten egyaránt fontos. Misuraca jelezte, a kormányzatnak az MI szabályozójaként, felhasználójaként, illetve közvetítőként is szerepe van, és rámutatott arra a kihívásra, amelyet az MI közszolgáltatásokban való alkalmazása jelent, miközben meg kell védeni a polgárokat, különösen bizonytalan kimenetelű események esetén. Hangsúlyozta továbbá, hogy a munkaerőt fel kell készíteni a mesterséges intelligencia nagyobb mértékű alkalmazására.
Videókapcsolaton keresztül, élőben beszélt a készülő uniós mesterségesintelligencia-rendeletről (MI-rendelet) a konferencia résztvevőinek Brando Benifei, az Európai Parlament olasz képviselője, az MI-rendelet egyik társelőadója. Elmondta, hogy az NMHH konferenciájának címe – Humans in Charge – Felelősségteljes irányítás a mesterséges intelligencia korában – tökéletesen összefoglalja azt, amit ők is szeretnének elérni az új közösségi jogszabállyal: egy emberközpontú, erős humán felügyeletet lehetővé tevő, a kockázatokat minimalizáló, az előnyök kihasználását ösztönző szabályrendszert.
A Microsoft Spanyolország „Adat és mesterséges intelligencia a közszférában és az egészségügyben” részlegének vezetője kiemelte: a kormányzat és a magánszektor közötti együttműködésre van szükség a mesterséges intelligencia kezelésében. Rámutatott a mesterséges intelligenciában rejlő átalakító erőre. Sanchez kiemelte az óvatos, de optimista megközelítés fontosságát, utalva a Microsoft saját MI-szabályozási keretrendszerére. Utalt Spanyolország nemzeti MI-stratégiájára és arra, hogy más uniós országok, például Magyarország is átveheti az „MI-homokozó" modellt.

Pódiumviták

A Felelős MI a digitális platformokon, a telekommunikációban és a médiában című pódiumbeszélgetés a mesterséges intelligencia szerepére összpontosított ezekben az ágazatokban. Szó volt a stratégiákról, a kihívásokról és a jogszabályi megfelelelőségről is. A vitában a Microsoft Spanyolország, a PHI Institute for Augmented Intelligence, az OpenAI és a T-Systems International szakértői vettek részt.
A pódiumbeszélgetésen résztvevő nemzetközi hírű mesterségesintelligencia-szakértők beszéltek a mesterséges intelligencia konstruktív erejéről, de kitértek a lehetséges veszélyekre és kockázatokra is. A fő hangsúly a mesterséges intelligencia biztonságával és védelmével, a kiszolgáltatott társadalmi csoportok, különösen a fiatalok védelmével, valamint az intézmények szerepével és a mesterséges intelligenciával való visszaélések elleni védelemmel kapcsolatos tudatosság növelésére helyeződött.
A világ közeledik a konszenzushoz az etikus mesterséges intelligenciáról, amit a várható uniós MI-jogszabály is előrevetít. A normák létrehozásának, operacionalizálásának és az irányítási struktúrák kialakításának kérdései központi szerepet játszanak. A vezetőktől elvárják, hogy megértsék a mesterséges intelligencia politikáját, etikáját és hatékonyan kommunikálják annak következményeit.
A negyedik pódiumvita a mesterséges intelligenciával támogatott kormányzati szolgáltatásokat – mint a mesterséges intelligencia társadalmi bevezetésének kulcsfontosságú területét – tárgyalta. A kérdések az EU mesterséges intelligenciára való politikai felkészültségét, a megbízható MI-tesztkörnyezetek létrehozását és szerepét, valamint a hatóságok és nagy platformok közötti partnerséget érintették. A részt vevő szakértők az MI-vel kapcsolatos különféle szakterületekről érkeztek.

Képgaléria

Képgaléria