(Magyar nyelvű kivonat) Budapest 2020
Szerző: Zsebők Dávid
1. Bevezetés
A 21. században az emberek többségének határozott elképzelései vannak a mesterséges intelligencia jelentésével és megjelenésével kapcsolatban, valamint annak szerepével a modernizált világban, köszönhetően leginkább az elmúlt évtizedek film és irodalmi aktivitásának a témában. Éppen ezért ennyire fontos pontosan tisztázni azt, mit is értünk mesterséges intelligencia címszó alatt, hiszen a sci-fi műfajban kialakult kép, és az ott tapasztalt megjelenése igencsak félrevezető. Mesterséges intelligenciának egy gép, program, vagy mesterségesen létrehozott tudat által megnyilvánuló intelligenciát nevezünk, és legtöbbször a számítógépes világhoz társítjuk. Az önálló diszciplína kialakulását, mint mesterséges intelligenciakutatás első fontos állomását, az 1956-os dortmouthi konferenciához1 köthető, ahol az ott részvevők -többek között a tudományág egyik legfontosabb szakembere, John McCarty is- egyetértettek abban, hogy létrehozható olyan program, ami szimulálhatja az emberi gondolkodást, de már az 50-es évek végén több olyan eszmeirányzat volt, amely eltérően vélekedett ennek megvalósításáról. Az emberi módon gondolkodó rendszer képviselői szerint az emberi elme működését és a megismerést modellező rendszer tekinthető mesterséges intelligenciának, szemben az emberi módon cselekvő rendszerrel, amelynek meggyőződése, hogy a mesterséges intelligencia nem más, mint az emberi viselkedés egy az egybeni lemásolása és ezúton való létrehozása. A fent említett két ágon kívül el kell határolni a racionálisan gondolkodó és racionálisan cselekvő rendszer fogalmát is. Előbbi lényege, hogy a cél nem más, mint az emberi gondolkodásnál tökéletesebb szoftver megalkotása, szemben az utóbbival, mely nem arra törekszik, hogy emberi értelemben véve gondolkodjon vagy imitálja az emberi viselkedést, hanem hogy a lehető legracionálisabban viselkedjen, ezáltal mindig a legjobb várható kimenetel érdekében cselekedjen.2
1950-ben Isaac Asimov biokémikus és író „Én, a robot” című művében fektette le a robotika 3 alaptörvényét, amely akármennyire is tűnik a dolgozat szempontjából ponyva irodalomnnak, jól mutatja a korszak igényét és érdeklődését a tudományág kiszélesítése és megismerése iránt. Az első törvény, hogy a robotnak tilos kárt okoznia emberi lényben, vagy tétlenül tűrnie azt, hogy az ember bármilyen kárt szenvedjen. A második, hogy a robotnak kötelező mindig az ember utasításait követnie, kivéve akkor, ha ezek az utasítások az első törvény előírásába ütköznének. A harmadik, hogy a robotnak gondoskodnia kell önmaga védelméről mindaddig, amíg a cselekménye nem ütközik az első vagy második törvény előírásaiba.
A fent említett szabályok amennyire egyszerűek, éppen annyira ellentmondásosak is, főleg mai szemmel nézve. Mi történik akkor, ha egy emberi lény arra utasítja a robotot, hogy kárt okozzon egy másik személyben, de ezt a másik személy érdekében tegye? Hogy kezelhető az a szituáció, ha az orvostudományban használt operáló robot szolgálatot végez, és életmentő műtétet kell végeznie egy páciensen, de a személy ellenáll? Milyen feloldásai lehetnek ezeknek a morális és etikai dilemmáknak, de ami jelen dolgozatban még fontosabb, milyen jogi szabályozás lenne a legmegfelelőbb a hasonló esetek elbírálása során?
1981-ben Japánban, a híres, motorkerékpárokat előállító Kawasaki gyárban történt az első olyan eset, amikor egy robot megölt egy ott dolgozó munkást.3 Kenji Urada egy hibásan működő összeszerelő robotot akart újra működésbe hozni annak gyors megjavításával, de átmászva azt a biztonsági korlátot, amellyel elvileg a robot teljes leállítását kellett volna eredményeznie, -így engedve a szerelő biztonságos munkavégzését a gép közvetlen közelében- a robot mégis újra működésbe lépett, és egy másik hasonló géphez hozzácsapva halálra zúzta a személyt. Hiába vált az eset híressé a médiában a részletes nyomozás után, veszélyes üzemi balesetre, valamint az ott dolgozók hozzá nem értésére hivatkozva az ügyet lezárták.
Az elmúlt években több olyan baleset is történt, amely ráfogható volt a mesterséges intelligencia cselekményére, elég csak a robotizációban élen járó, Tesla járműipari cég 2016- os és 2017-es incidenseire visszaemlékezni4, amikor mindkét esetben emberi életekbe került a robotpilóta hibája. Az esetek precedens és jogi szabályozás híján lezárásra kerültek annyival, hogy megpróbálták felelősségre vonni a gyártót, de a Tesla emberi hibára való hivatkozására tekintettel nem történt érdemi állásfoglalás egyik alkalommal sem a bíróságok részéről.
Látható, hogy a ma ismert jogrendszerek nem képesek azon felelősségi kérdések egyértelmű megválaszolására, amelyek kielégítő eredményre vezetnének a hasonló ügyek tárgyalása során, hiszen hiába jelent meg az igény valamennyi társadalmi viszonyban a mesterséges intelligencia szabályozására, az önjáró autókon át, a fegyvereken keresztül az orvosi gépekig, a rendelkezések az adott felhasználási területekre és azok különleges viszonyaira épülnek, valamint a mögöttes emberi felelősségre koncentrálnak, általános felelősségi kérdésekkel azonban kimondottan ritkán találkozunk azok nehezen igazolható disztópiára való hivatkozásuk, vagy a túl általános megfogalmazásuk okán. Nem kérdés viszont, hogy szükség van a mesterséges intelligenciával érintett területek átfogóbb jogi szabályozására, de első körben le kell tudni fordítani a mesterséges intelligenciát a jog nyelvére annak érdekében, hogy az az ismert büntetőjogi felelősségrendszerbe beilleszthető legyen. Alapvetően az intelligencia fogalma sem alkotható meg tökéletes pontossággal, hiszen annak kulcs- komponensei, a tudatosság, a gondolat, a szabad akarat és az elme négyesét megfogalmazó koncepció is állandó vita tárgyát képezi. Így nehezen várható el az is, hogy a jog reagálni legyen képes az ilyen modern problémákra, főleg, hogy vonatkozó szakirodalom sem magyar, sem nemzetközi szinten nem áll a téma kidolgozásának olyan szintjén, amelyre nagy biztonsággal alapozni lehetne bármilyen szabályrendszert, de a technika fejlődésével a felelősségtani dilemmák egyre hamarabb megfelelő megoldásokat igényelnek.
2. A mesterséges intelligenciával kapcsolatos felelősségi rendszerek
Gabriel Hallavy, a tudományág élenjárója a mesterséges intelligencia körében három elméleti konstrukcióját határozta meg a büntetőjogi felelősségre vonás kapcsán5. Az első ilyen egyfajta közvetett tettességen alapuló modell, azonban ennek megfogalmazása egyben az elmélet hibája is, miszerint egy önfejlesztő mesterséges intelligencia kerülhet olyan helyzetbe, amely során a megalkotása utáni időszakban, már emberi beavatkozástól mentesen, általa megszerzett ismeretek alapján valósít meg bűncselekményt, attól függetlenül, hogy nem is az adott bűncselekmény elkövetésére tervezték. Ez akár úgy is megvalósulhat, ha a mesterséges intelligencia programozása során egy elérendő célt határoznak meg az entitásnak, de maga választhatja meg annak eléréshez szükséges eszközöket és részcélokat. Ez a gondolatmenet abban az esetben fogadható el, ha a mesterséges intelligenciára, mint eszközre tekintünk, így e koncepcióban a mesterséges intelligenciát megalkotó programozó és annak felhasználója tartozik büntetőjogi felelősséggel az elkövetetett tényállásszerű bűncselekményért.
A második elmélet a gondosságon alapuló modell, amely azt feltételezi, hogy a mesterséges intelligencia azon felhasználóit is terheli a büntetőjogi felelősség, akik nem kifejezetten bűncselekmény elkövetése érdekében használják fel a mesterséges intelligenciát, de eredményeként a mesterséges intelligencia valamilyen tényállásszerű cselekményt hajt végre. A büntetőjogi felelősségre vonás alapja ebben az esetben az, hogy a programozás és a felhasználás körében kifejezetten indokolt lett volna vizsgálni a lehetséges károkozás bekövetkezésének lehetőségét, függetlenül attól, hogy ez a gondatlan magatartás a negligencia vagy a luxoria esetkörét meríti ki.
Az első két feltételezés esetében látható, hogy csak az ember lehet az elkövető az ilyen tényállásszerű magatartások megvalósításakor, így tulajdonképpen a ma is alkalmazott elkövetőkre, bűnösségre és felelősségre vonási szabályokra vonatkozó dogmatikai előírásokat lehet alkalmazni, amely nem jelenti az elmélet hiányosságát, hanem annak a lehetőségét tartja fent, miszerint a meglévő pozitív jog megreformálása célra vezető lehet. Ezzel szemben a harmadik felvetés erősen hipotetikus, ez nélkülözi leginkább a tudományos megközelítést, miszerint a mesterséges intelligenciának lehetséges az önálló felelősségre vonása, mint elkövető. A törvényi bűncselekmény fogalomból kiindulva, mely szerint annak a cselekménynek, amely a társadalomra veszélyes, tényállásszerű és bűnös6, csak olyan ember lehet alanya, aki rendelkezik az alannyá válás feltételeivel. Ebből adódóan jelenlegi tudásunk szerint az tudati-akarati képességekkel nem rendelkező mesterséges intelligencia akarati- érzelmi oldala nem értelmezhető, ezáltal a bűnösség kérdése sem. Nem jelenti viszont azt, hogy ne kéne vizsgálni a mesterséges intelligencia autonóm döntéseivel összefüggő következményeket, ezáltal a büntetőjogi felelősségre vonás lehetőségét is, ezekről a későbbiekben fogok értekezni.
3. Felelősségtani hipotézisek
Ahogy fent említettem, érdemes a ma ismert joganyagra hagyatkozva, létező dogmatikai keretek közt tartani a kérdést, így kell számításba venni azt a lehetőséget, amikor a mesterséges intelligenciát, mint az elkövetés eszközét értékeljük. A hipotézis ebben az esetben az, hogy a mesterséges intelligencia, mint az ember által alkotott instrumentum mindvégig a programozó által meghatározott keretek között dolgozik, az kizárólag a felhasználó utasítása szerint működik, és elvetjük annak lehetőségét, hogy autonóm módon új ismeretekre tegyen szert, tehát a megvalósított cselekmény kontrollált eszközeként van jelen. Ez viszont csak abban az esetben állja meg a helyét, ha a mesterséges intelligencia használata kifejezetten valamely jogellenes cselekmény megvalósítására irányul, az, hogy a programot bűncselekmény elkövetése céljából fejlesztették, vagy csak kihasználják a benne rejlő lehetőséget, irreleváns. Amennyiben nem zárjuk ki azt az alternatívát, miszerint a mesterséges intelligencia a gépi tanulási folyamat eredménye képpen okoz kárt, az előre nem látható cselekmények okozta károkért az alkotó nem vonható felelősségre, feltéve persze, hogy a mesterséges intelligenciával kapcsolatos feladatokat ellátó emberek a tőlük elvárható körültekintéssel járnak el.
Az előre nem várt, kiszámíthatatlan károkozás a mesterséges intelligencia részéről tulajdonképpen veszélyes üzemként is értelmezhető, amely a polgári jog területén megalapozhatná az objektív felelősségi rendszer alkalmazását, de nyilvánvalóan ez a felvetés összeegyeztethetetlen a büntetőjogi felelősségre vonás szabályaival. A legészszerűbb feloldása a problémának az a módszer lehet, ha a mesterséges intelligenciára vonatkozó ágazati jogszabályokon belül kerül kialakításra egy olyan felelősségrendszer, amely lépésről- lépésre leköveti a program fejlődését, így a mesterséges intelligencia fejlesztése, tesztelése, engedélyezése, alkalmazása és üzembentartása is meghatározott gondossági kötelezettségekhez lennének kötve, így adva alapot a kötelezettől elvárható körültekintésnek. Ez a rendszer sem számol azonban azzal a lehetőséggel, hogy a szoftver, mint önállóan működő, racionálisan cselekvő entitásként működik, így képes saját döntések meghozatalára. A gépi tanulás az a folyamat, amely révén új ismeretek beépítésére adódik alkalom a mesterséges intelligencia számára, a programozó közvetlen hozzájárulása nélkül. Új képességek alakulhatnak ki, és a meglévők átalakulhatnak, ezáltal az emberi kontroll megint csak háttérbe kerül.
A mesterséges intelligencia jogalanyként való elismerése nem a büntetőjog kérdéskörébe tartozik, de ha így történne, az eddigieknél sokkal egyszerűbb választ lehetne adni a felelősséggel kapcsolatos főkérdésre. Amennyiben a mesterséges intelligencia tudattal, szabad akarattal és cselekvőképességgel rendelkező jogalanyként ismerendő el, abban az esetben a
Btk. szabályrendszerét minden további nélkül használni lehetne a felelősségre vonás kérdésében, és ezáltal büntethető is lenne. Ugyanakkor jelenlegi tudásunk szerint, mivel a mesterséges intelligencia nem rendelkezik az emberhez hasonló beszámítási képességgel és tudati-akarati tulajdonságokkal, ezért az önálló büntetőjogi felelősségre vonása kizárt.
Mindazonáltal az ember szempontjából sem mindig áll fent a beszámítási képesség egy adott bűncselekmény elkövetésekor, így jogalanyként ő sem tehető felelőssé a magatartásáért, de ennek ellenére a büntetőeljárás során ezt vizsgálni kell, és adott esetben, pl. kényszergyógykezelés útján szankcionálható is a magatartás. Így lehet megemlíteni a büntetőjog eszközrendszerét a közvetett tettesi és közvetett felelősségi kérdések megoldására, mint az állatok felhasználásáról vagy a jogi személyek felelősségéről szóló rendelkezéseket, amelyek úgyszintén párhuzamba állíthatók a mesterséges intelligencia felelősségének megállapításával kapcsolatosan, ebből kifolyólag nem is feltétlenül szükséges a mesterséges intelligenciát, mint jogalanyt elismerni. 7
4. Az autonóm döntés és cselekvés
A következő tisztázni kívánt elem, hogy a mesterséges intelligencia cselekedetei lehetnek- e tényállásszerűek, amihez először tisztázni kell, hogy a mesterséges intelligencia aktusai büntetőjogi értelemben vett cselekménynek tekinthetőek-e. Az emberi magatartást a pszichikumból induló és a külvilágban folytatódó folyamatok szisztémájaként lehet értékelni, melynek állomásai a szükségletek jelentkezése, a szükségletek általi vágyakkal kapcsolatos motívumok harca, az elhatározás a cél eléréséhez szükséges magatartás kifejtésére, majd maga a magatartás véghezvitele. Ebben a relációban viszont csak a szándékos elkövetést lehet értékelni, a hanyagságból eredő mulasztásos bűncselekményeknél a fent említett pszichés előzmények létre sem jönnek, ezért a cselekmény fogalmából érdemes kivonni a bűnösségi elemeket, így elérve azt, hogy a mesterséges intelligencia aktusait cselekményként lehessen vizsgálni. Az egységes jogirodalmi álláspont szerint a cselekmény kizárólag ember általi cselekvésként értelmezhető, de a redukált cselekményfogalom feloldja ezt a megállapítást, miszerint egy cselekménynek egyrészt akaratlagosnak, másrészt hatóképesnek kell lennie.
Hatóképes egy cselekmény akkor, ha képes arra, hogy a külvilágban változásokat eszközöljön, és bizonyos álláspontok szerint ezért a mulasztás is cselekményként értékelendő. Az akaratlagosság oldaláról fontos tisztázni, hogy nem szabad összekeverni a bűnösség körében vizsgált alanyi oldali akarattal, tehát a magatartás következmények kívánalmával, ezért annak az aktusai is cselekménynek számítanak, aki nem rendelkezik beszámítási képességgel, így az alanyi oldal kritériumai hiányoznak. Megállapítható ezáltal, hogy a mesterséges intelligencia környezettel való interakciói kimerítik a hatóképesség fogalmát, a kérdés az, hogy az akaratlagosság oldaláról párhuzamot vonhatunk-e az emberi akaratlagosság mechanizmusaival, és hogy kontrolláltnak számítanak-e. Ezeket vizsgálva kijelenthető, hogy a mesterséges intelligencia azon aktusai tekinthető cselekményeknek, amelyek gépi tanuláson, adaptáción, az önálló döntésen és következtetéseken alapulnak, valamint azokat követik.
Amennyiben elfogadjuk azt, hogy a mesterséges intelligencia aktusai cselekményként értékelhetőek, ez esetben tényállásszerűek is lehetnek. E felvetés első lépéseként természetesen el kell tekinteni az írott normákban szereplő, az emberre utaló „aki” névmást, amelyet a kérdéskör elemzése erejéig a már említett autonóm döntéseket meghozni képes rendszerrel helyettesítendő.8 A mesterséges intelligencia cselekményének vizsgálatakor kétséget kizárólag értelmezhető a célzat, a motívum azonban már vitatható, hiszen mindkét oldal egyazon pszichés folyamathoz tartozik az ember esetében.9 A motívum megteremtője a célnak, de a motívum egy olyan gondolat, amelynek lélektani eredetéről nincs igazolt és pontos tudományos álláspont. Ez viszont nem jelenti azt, hogy ezáltal a motívum meglétét kizárná a mesterséges intelligencia cselekménye, hiszen az ember esetében sem kell kötelezően valamilyen érzelmi vagy morális elemeket tartalmaznia, tehát a mesterséges intelligencia számára is betáplálhatók a fejlesztő által olyan alapszituációk és feltételek, amelyeket később mint okként felhasználhatók számára. Ebből következik, hogy a mesterséges intelligencia képes átvenni az ember alanyi oldalának bizonyos részeit, és emberi viselkedést szimulálni anélkül, hogy bármilyen érzelmi vagy akarati viszonyulása lenne az adott cselekményhez. Megemlíthető ezzel a hipotézissel kapcsolatban az a kritika, miszerint a programozó határozza meg a mesterséges intelligencia mozgásterének és működésének határait, de ez az érv pusztán a bűnösségre való képességet zárja ki, az aktus diszpozíciószerűségét nem. Nem garantálható az, hogy a mesterséges intelligencia nem követ el jogellenes magatartást attól, hogy döntéseit racionális úton hozza meg, hiába ez a célja a program alkotójának. A tökéletesen jogkövető mesterséges intelligencia programozójától az a jogpozitivista felfogás elvárt, hogy jelfelismerés szintjén a szoftver a Btk. szabályrendszerének összes lehetséges gyakorlati megvalósulását a kerettényállások mögöttes joganyagával együtt ismerje és használni tudja, valamint, hogy reflektálni tudjon ezzel párhuzamosan a társadalmi viszonyokra is. Ugyanakkor ez még a felelősségre vonható emberek esetében sem elvárható, ezt pótolja a társadalomra veszélyesség kritériuma, valamint a tudat állapotának olyan szintje, amely képes morális tényezők befogadására, illetve képesség arra, hogy felismerje a társadalmi viszonyokban rejlő alapvető szabályokat a törvénykönyvek ismerete nélkül is. Következtetésül megállapítható, hogy a jog technikai ismerete korán sem elegendő a jogalkalmazáshoz és a tökéletesen jogkövető magatartás eléréséhez, ugyanis szükség van azon dogmatikai és filozófiai eszköztárra is, amelyet nem merít ki az írott jog. Ha ez mégis megvalósítható lenne, és a mesterséges intelligencia rendelkezhetne ezen képességekkel is, a ma ismert igazságszolgáltatás működését teljes egészében szükségtelenné tenné. Egy törvényeket ismerő, szabályalkalmazó, autonóm program működése során is számottevő olyan körülmény felmerülhet, amely a szoftver kockázatelemzését követően szükségessé teszi a kisebb-nagyobb súlyú szabályok megszegését, például a jogos védelem, végszükség, vagy sértetti beleegyezés körében. Adott esetben a mesterséges intelligencia akár azért is jogellenes aktusra kényszerülhet, hogy elkerülje a nagyobb kockázatot annak elemzését követően, így az emberben elméjében lejátszódó, irracionális gondolatoktól korán sem mentes motívumok harcát a bűncselekmény elkövetése előtt a mesterséges intelligencia esetében felváltja a tett következményeinek egy
tisztán racionalitáson alapuló, érzelmektől mentes értékelése. Összegzésként két lényeges elemet kell kiemelni a mesterséges intelligencia büntetőjogi felelősségének tanulmányozásakor: egyrészt azt a technológiai körülményt, amely lehetőséget biztosít a mesterséges intelligenciának az önálló, autonóm döntések meghozatalára, ezáltal előfeltételként szolgál a felelősségi szabályrendszer kialakításához, másrészt azokat az emberi elméből jól ismert tényezőket, amelyek a humán intellektualitáshoz, lélektani folyamatokhoz és ezek értékeléséhez kapcsolódnak.
5. A mesterséges intelligencia és a szankciók
A mesterséges intelligencia szankcionálásának alapját az a felvetés adja, hogy egy olyan cselekmény elkövetése, amely egy embert is büntetőjogi felelősségrevonás útján szankcióval súlytana, kiindulópontként szolgálhat a programmal szembeni alkalmazásával kapcsolatban is. A realitástól el nem rugaszkodva, a büntetés egyik fő céljaként meghatározott speciális és generális prevenció nem képezi kérdés tárgyát, a mesterséges intelligenciával kapcsolatosan ez egyelőre nem értelmezhető. Mindazonáltal, ahogy a beszámítási képességgel nem rendelkező természetes személy esetében a büntetés elsődleges célja a társadalom védelme, és nem a további elkövetéstől való „elriasztás”, ezért ez nem zárható ki a mesterséges intelligencia szankcionálásával kapcsolatban sem, egyedüli probléma a szankció tárgya és címzettje lehet. Ahogy a jogi személyekkel kapcsolatos büntetőjogi intézkedések is célravezetőek, úgy a mesterséges intelligenciát érintő szankciók is létrehozhatók jogalkotás útján. Figyelemmel az informatikai rendszer korábban leírt döntéshozatali autonómiájának fokára, kijelenthető, hogy szükséges a büntetőjogi szankció alkalmazása, és hasonló úton kell végighaladni, ahogy azt a jogrendszer tette a jogi személyek esetében is. Két számottevő különbség van azonban a jogi személyekkel és a mesterséges intelligenciával szembeni szankciók alkalmazása szempontjából.10 Az egyik, hogy a jogi személyek önálló jogalanyisággal rendelkeznek, jogok és kötelezettségek alanyai lehetnek, valamint elkülönült vagyont birtokolhatnak, a bíróság pedig járulékos felelősség elve alapján valamelyik természetes személlyel szemben szab ki büntetést, megrovást, próbára bocsátást, vagy többek között vagyonelkobzást. A másik probléma ezáltal, hogy egy természetes személy büntetőjogi felelősségét, mint elkövető kell megállapítani először ahhoz, -így például a vezető tisztségviselőét- hogy a jogi személlyel szemben szankciókat lehessen alkalmazni, de ez nem mindig eredményes. A büntetőjog a jogi személy cselekvőképtelensége okán azt feltételezi, hogy az emberi cselekvés hozza létre azt a tényállásszerű magatartást, amit büntetni rendel, a feltétel csak annyiban merül ki, hogy a jogi személyt érje ezáltal előny, illetve, hogy a bűncselekményt a jogi személy felhasználásával kövessék el. Kérdésként merülhet fel, hogy a mesterséges intelligencia szempontjából is előfeltételként kell-e megjelennie a természetes személy felelősségre vonásának is, de az eddig leírtak alapján ez nem akadályozhatja a szankcionálhatóságot. A mesterséges intelligencia önálló döntéshozatala és autonómiája viszont sokkal erősebb lehet bizonyos esetekben, mint a jogi személyeké, hiszen aktusai mögött nem áll természetes személy, ezért a program emberi közrehatás nélkül is, önmagától képes tényállásszerű cselekményt megvalósítani.
Bonyolult kérdéskör a lehetséges szankciók tárháza is, ugyanis ha jogi személyekkel kapcsolatos analógiát folytatjuk, esetükben státuszkorlátozó és vagyoni jellegű büntetéseket alkalmazhatók, azonban a mesterséges intelligencia jogellenes cselekményeit várhatóan csak a státuszkorlátozó rendelkezésekkel lehetséges büntetni elkülönült vagyona hiányában. A mesterséges intelligenciát az teszi egyedül szankcionálhatóvá, hogy önállóan képes döntéseket hozni, cselekedetei indetermináltak, tehát a saját tanulási folyamata alatt szerzett impulzusok befolyásolják aktusait, és nem a mögötte álló alkotó vagy felhasználó. Ebből kifolyólag, ha egy mesterséges intelligencia nem képes erre, és nincs meg a fent említett szabadsága, akkor nem is szankcionálható. Példaként, ha egy katonai drón minden példánya, amit használnak, megvalósítanak egy különös részi tényállást, akkor valószínűsíthető, hogy a döntéseik nem önállók, hanem a programozásuk hibás, így a rendszer megalkotóját terheli felelősség. Abban az esetben viszont, ha az említett drónok tanulásra, alkalmazkodásra képesek, és ezek az új információk alapján hozzák meg önálló döntésüket, akár a programozó szándékával ellentétesen is, akkor szankcionálhatóvá válnak, többek között létezésük megszüntetésével is. Így megállapítható, hogy a mesterséges intelligencia státuszkorlátozó
szankciói jelenthetik a megoldást, de ennek is több akadálya van. Egy robotot működésképtelenné lehet tenni, egy szoftvert el lehet távolítani, de az interneten létező és ott terjedő mesterséges intelligencia büntetése egyelőre megoldhatatlan technikai problémának tekintendő, hiszen a működésének korlátozásán túl, annak teljes eltávolítása kivitelezhetetlen globális szempontból, és ugyan ez igaz az elkobzásra, mint lehetséges szankcióra.
6. Gondolatok a hibrid felelősségi rendszerről
A lehetséges szabályozás problémáinak szerteágazó mivoltából adódóan egy olyan hibrid felelősségi rendszer kialakítása lehet a megoldás, amely amellett, hogy az emberi bűnösség és felelősségre vonás eszköztárát is felhasználja, megjelenik benne a mesterséges intelligencia által megvalósított tényállásszerű cselekmény miatti büntetőeljárás és jogkövetkezmény is. Ez azt jelenti, hogy a ma is hatályban lévő büntetőjogi kódexet nem önmagában, hanem a mesterséges intelligenciával érintett terület specifikus szabályozásával egyetemben lehet alkalmazni. Az említett felelősségi rendszer egyik alappilléreként kell kialakítani az ágazati robotjogot, amely a mesterséges intelligencia felhasználásával és alkalmazásával kapcsolatos összes szintet lefedi, a fejlesztés fázisától egészen a kész program karbantartásáig.
Azonosítani kell a mesterséges intelligencia alkalmazásával járó kockázatokat, és a gondossági szabályok be nem tartásának eredményeként bekövetkező sérelmeket, károkat és veszélyhelyzeteket is, és ehhez kapcsolódóan kimeghatározni azon felelősségi és tevékenységi köröket, melyek a rendszer működésére kihatással lehetnek. A lehetséges szankciók pontos kidolgozása mellett szükség van arra, hogy pontosan meghatározhatók legyenek a felelősséget kizáró okok, amely a mesterséges intelligencia autonóm döntési képességeinek tudatában egy különösen nehéz feladat. Végezetül nélkülözhetetlen a mesterséges intelligencia büntetőjogi összefüggéseinek átfogó kidolgozása, beleértve az anyagi jog általános és különös részét is egy olyan formában, ahogy azt a 2001. évi CIV. törvény teszi a jogi személlyel szemben alkalmazható büntetőjogi intézkedések vonatkozásában.11
Jegyzetek:
1 Stuart Russel, Peter Nordvig: Mesterséges Intelligencia. Panem Kft., 2005
2 John McCarty – Claude Shannon – Allen Newel – Herbert Simon – Marvon Minsky
3 The Economist – Trust me I’m a robot. 2006/6, utolsó megnyitás: 2020/05
4 Totalcar – Tesla halálos baleset: a robotpilóta is hibázott, Zách Dániel, 2017/09, utolsó megnyitás: 2020/05
5 Gabriel Hallevy: The Criminal Liability of Artificial Intelligence Entities – From Science Fiction to Legal Social Control. Akron Intellectual Property Journal. 2010/4., 181. o
6 Belovics Ervin – Büntetőjog I. Általános rész, HVG-ORAC 2017/10, 154.o.
7 Miskolczi Barna, Szathmáry Zoltán: Büntetőjogi kérdések az információk korában – Mesterséges intelligencia, Big Data, Profilozás. HVG-ORAC, 2018., 61-66.o.
8 Miskolczi, Szathmáry: i.m. 78.o
9 Belovics: i.m. 203.o.
10 Miskolczi, Szathmáry: i.m. 91. o.
11 Miskolczi, Szathmáry: i.m. 103.o.
Irodalomjegyzék:
Jogszabályhelyek:
2012. évi C. törvény 2001. évi CIV. törvény
Felhasznált irodalom:
Belovics Ervin – Büntetőjog I. Általános rész, HVG-ORAC 2017/10
Gabriel Hallevy: The Criminal Liability of Artificial Intelligence Entities – From Science Fiction to Legal Social Control. Akron Intellectual Property Journal. 2010/4.
Miskolczi Barna, Szathmáry Zoltán: Büntetőjogi kérdések az információk korában – Mesterséges intelligencia, Big Data, Profilozás. HVG-ORAC, 2018
J.K.C. Kingston: Artificial Intelligence and Legal Liability. International Conference on Innovative Techniques and Applications of Artificial Intelligence, 2016/11
Stuart Russel, Peter Norvig: Mesterséges Intelligencia. Panem Kft., 2005
https://totalcar.hu/magazin/kozelet/2017/09/14/halalos_baleset_teslaval_a_robotpilota_is_hib azott/
https://www.economist.com/technology-quarterly/2006/06/10/trust-me-im-a-robot
Tartalomjegyzék
- Bevezetés
- A mesterséges intelligenciával kapcsolatos felelősségi rendszerek
- Felelősségtani hipotézisek
3.1. A mesterséges intelligencia mint az elkövetés eszköze
3.2. A mesterséges intelligencia mint veszélyes üzem
3.3. A mesterséges intelligencia mint önálló elkövető
- Az autonóm döntés és cselekvés
4.1. A mesterséges intelligencia cselekménye
4.2. A mesterséges intelligencia aktusának tényállásszerűsége
- A mesterséges intelligencia és a szankciók
5.1. A szankciók elvi alapjai és a jogi személyekkel való összevetés
5.2. A lehetséges szankciók
- Gondolatok a hibrid felelősségi rendszerről
Jegyzetek
Irodalomjegyzék
Tartalomjegyzék