<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>szintetikus tartalmak &#8211; Máltai Tanulmányok</title>
	<atom:link href="https://maltaitanulmanyok.hu/cimkek/szintetikus-tartalmak/feed/" rel="self" type="application/rss+xml" />
	<link>https://maltaitanulmanyok.hu</link>
	<description>A Máltai Tanulmányok a Magyar Máltai Szeretetszolgálat interdiszciplináris folyóirata. A szaklektorált folyóiratot a szervezet 30. évfordulója alkalmából alapították</description>
	<lastBuildDate>Thu, 30 Oct 2025 12:49:28 +0000</lastBuildDate>
	<language>hu</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>A „valósághajlító” technológiák és szabályozási dilemmáik</title>
		<link>https://maltaitanulmanyok.hu/magazin/a-valosaghajlito-technologiak-es-szabalyozasi-dilemmaik/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=a-valosaghajlito-technologiak-es-szabalyozasi-dilemmaik</link>
		
		<dc:creator><![CDATA[Ződi Zsolt]]></dc:creator>
		<pubDate>Fri, 22 Nov 2024 08:20:09 +0000</pubDate>
				<category><![CDATA[Nagyító]]></category>
		<category><![CDATA[szintetikus tartalmak]]></category>
		<category><![CDATA[technológia-szabályozás]]></category>
		<category><![CDATA[technológia]]></category>
		<category><![CDATA[mesterséges intelligencia]]></category>
		<guid isPermaLink="false">https://maltaitanulmanyok.hu/?post_type=magazine&#038;p=9415</guid>

					<description><![CDATA[Lehet-e reálisan kezelni azt a befolyást, amelyet a humanoid robotok, a "mélyhamisítás", a kiterjesztett és virtuális valóság gyakorol életünkre? Hogyan...]]></description>
										<content:encoded><![CDATA[<p>Lehet-e reálisan kezelni azt a befolyást, amelyet a humanoid robotok, a &#8222;mélyhamisítás&#8221;, a kiterjesztett és virtuális valóság gyakorol életünkre? Hogyan lehet előre megregulázni a kiszámíthatatlant? A szintetikus társadalom szabályozása című könyvében ezeket a kérdéseket feszegeti a holland filozófus-jogász professzor.</p>
<hr />
<h2><strong>Absztrakt</strong></h2>
<p>Bart van der Sloot új könyve kiváló összefoglalást ad arról a négy technológiáról, amelyek jelenleg a technológiai fejlődés élvonalában vannak: a humanoid robotokról, a mélyhamisításról, a kiterjesztett és a virtuális valóságról. A könyv szabályozásközpontú: a főszöveg 226 oldalából több mint száz annak magyarázata, hogyan képezi le a jelenlegi jogi paradigma a négy technológiát, harminc oldal a könyv végén pedig ajánlás a döntéshozók számára.</p>
<p>&nbsp;</p>
<p><strong>Kulcsszavak: </strong>mesterséges intelligencia, szintetikus tartalmak, technológia-szabályozás, EU Mesterséges Intelligencia Jogszabály</p>
<p><strong>DOI:</strong> <a href="https://doi.org/10.56699/MT.2024.4.9">10.56699/MT.2024.4.9</a></p>
<hr />
<p><span id="more-9415"></span></p>
<p>Bart van der Sloot, a Tilburgi Egyetem Jogi, Technológiai és Társadalmi Intézetének docense <em>Regulating</em><em> the Synthetic Society – Generative AI, Legal Questions and Societal Challenges </em>[A szintetikus társadalom szabályozása – Generatív MI, jogi kérdések és társadalmi kihívások] című, idén megjelent legújabb könyvének az a kiindulópontja, hogy a témáját adó négy technológia – a humanoid robotok, a mélyhamisítás, a kiterjesztett és a virtuális valóság – a mesterséges intelligencia segítségével a valóságot egyre inkább közvetítik, befolyásolják, megváltoztatják és helyettesítik, valamint hogy ezek a közeljövőben valószínűleg sikeresek lesznek, és széles körben elterjednek. Ezért fontos kérdés, hogy miképpen hatnak a világra, és hogyan lehet a jogi rendszert adaptálni a hatásuk megfelelő kezelésére.</p>
<p>A könyv jellegzetessége, hogy szemben a jelenleg nagyon divatos „végítéletváró” művekkel, amelyek leginkább a jámbor hétköznapi emberek és politikai döntéshozók ijesztgetésére alkalmasak, higgadtan és reálisan kezeli ezeket a technológiákat. A szerző két fejezetet szentel a négy technológia mélyebb bemutatásának. A második fejezet az új technológiákat írja le felhasználási esetek segítségével, főként médiajelentések alapján. A harmadik fejezet véleményem szerint az egyik legértékesebb része a könyvnek. Címe: „A motorháztető alatt”. Ez átfogó és pontos leírás, amelyen keresztül jobban megérthetjük például a generatív versengő hálózatok <em>(Generative Adversarial Network) </em>működését, vagy azt, hogy melyik az a négy tényező, amely meghatározza a robotok „humanoidságát”, ha az emberi képességeket tekintjük viszonyítási alapnak. Nem tisztán technikai leírásokról, hanem a működés laikusok számára is érthető magyarázatáról van szó.</p>
<p>A negyedik fejezet a négy technológia hosszú távú társadalmi hatásaival foglalkozik. Azzal az őszinte megjegyzéssel kezdődik, hogy egyrészt „a hosszú távú hatások nagymértékben meghatározatlanok és ismeretlenek” (59), másrészt pedig hogy nehéz megjósolni a tárgyalt technológiák <em>összes </em>hatását. A szerző ebben a fejezetben megfogalmazott előrejelzései és megfigyelései ezért a jövőbeli hatások korlátozott perspektíváját képviselik, és négy területet fednek le: igazság és bizalom, emberi elismerés és társadalmi interakció, autonómia és egyenlőség, valamint a technológiai szabályozás semlegességének kérdése. Ebből a fejezetből példaként két rendkívül érdekes megfigyelést emelek ki. Az egyik esetben a szerző azzal érvel, hogy a mélyhamisított <em>(deepfake) </em>videók még akkor is károsak lehetnek, ha nyilvánvalóan mindenki tudja, hogy nem valódiak, mert (tudatos vagy tudattalan szinten) megváltoztatják az adott személy megítélését a közösségében. Iskolai környezetben ha egy lány fejét egy pornósztár testéhez illesztik, erről mindenki tudja, hogy hamis, de az osztálytársai akkor is másképp néznek majd rá. Egy másik fontos észrevétel a fejezet végéről: a szerző bírálja a „technológiasemleges” liberális paradigmát, amely szerint a technológiák önmagukban nem jók vagy rosszak, csak az emberek használják őket ilyen vagy olyan célokra. E tekintetben Sloot merőben más álláspontot képvisel: a technológiák szerinte „bizonyos célokra vannak kialakítva”, és mindig léteznek „leggyakoribb használati esetek”. A jogi szabályozásnak figyelembe kell vennie ezt az „alapértelmezett tervezési és használati esetet” (82).</p>
<p>Az ötödik fejezet alkotja a könyv gerincét: azzal foglalkozik, hogy „a jelenlegi jogi paradigma hogyan illeszkedik a négy technológiához” (91), és öt szabályozási területet térképez fel: adatvédelem, (néhány kiválasztott) alapjog, például a szólásszabadság, a (szellemi) tulajdonra gyakorolt hatás, a négy technológia helye a technológiai szabályozási keretben, míg az ötödik alfejezet felelősségi és eljárási kérdéseket tárgyal. Az alfejezetek mindegyike tartalmaz friss és eredeti meglátásokat. Itt azt a részt emelném ki, amely a négy technológiát próbálja elhelyezni az európai technológiai szabályozás térképén. Ez nemcsak azért figyelemre méltó, mert a könyv leghosszabb alfejezete, hanem azért is, mert egy olyan normacsoportot elemez, amely legtöbbször elkerüli a mesterséges intelligencia szabályozási kérdéseivel foglalkozók figyelmét: ez pedig az európai termékmegfelelőségi előírások területe. Ezek a szabványszerű normák különböző típusú termékekre vonatkozó megfelelőségi követelményeket határoznak meg, és jelentőségüket az adja, hogy az európai Mesterséges intelligencia jogszabály <em>(AI Act) </em>egyenes leszármazottja ezeknek a normáknak. E szabályok felsorolása után a szerző közvetlenül ismerteti az Európai Bizottság által 2018-ban létrehozott mesterséges intelligenciával foglalkozó magas szintű szakértői csoport <em>(AI HLEG) </em>mesterséges intelligenciával kapcsolatos etikai irányelveit.</p>
<p>Végső következtetése: nem lehet tudni, hogy ezek a szabályok „pontosan mit jelentenek a különféle szintetikus technológiákra alkalmazva, mivel vagy általában a mesterséges intelligenciára, vagy még tágabb értelemben a termékekre és gépekre vonatkoznak” (147). Hozzá kell tenni, hogy az AI Actig minden termékmegfelelőségi szabályt olyan fizikai termékekre modelleztek, amelyek szinte kizárólag az egészséget, a biztonságot és a fizikai környezetet veszélyeztették. Azonban a mesterséges intelligenciának általában és a fent felsorolt négy technológiának két további fontos, egymással is összefüggő jellemzője van: az egyik, hogy nem <em>maga a technológia, </em>hanem annak kimenetei (szintetikus tartalom, döntések, ajánlások) veszélyesek. Mivel pedig az MI-re általában jellemző a jól ismert „black-box” jelenség, ezek a kimenetek néha egyszerűen nem számíthatók ki. Ráadásul nemcsak az emberi életre vagy egészségre, hanem a „puha” alapvető jogokra, az emberi szempontokra vagy az olyan elvont értékekre is veszélyt jelentenek, mint a szólásszabadság vagy a demokrácia. A szerző mindenesetre megállapítja, hogy a jelenlegi technológiai szabályozási keretek <em>nem alkalmasak </em>a leírt négy technológia szabályozására. A kérdés már csak az, hogy ha a termékmegfelelési szabályok nem alkalmasak az itt felmerülő kérdéseknek a kezelésére, akkor mi a helyzet az AI Acttel.</p>
<p>A fejezet egy különösen impozáns táblázatsorozattal zárul, amelyben a szerző szabályozási területenként vizsgálja a szintetikus technológiák, valamint a jelenlegi szabályok és jogi doktrínák kapcsolatát. Négy táblázatba rendezi meglátásait, amelyek az ilyen kapcsolatok négy típusát fedik le. Az első táblázatban azokat a jogi doktrinális konstrukciókat láthatjuk, amelyek egyértelműen szabályozzák és korlátozzák a szintetikus technológiákat. Példa erre az adatvédelem célhozkötöttséget kimondó elve. A második táblázatnál nem egyértelműen az a helyzet, hogy a jogszabályi rendelkezések korlátozzák a technológiákat, mert esetenként eltérő jogi eredményekre juthatunk. Például ez a helyzet a „magánélet sérthetetlensége mint személyiségi jog” esetében: „az Emberi Jogok Európai Egyezményének 8. cikke széles körű jogot biztosít a magánélethez, [de] hogy ez mennyiben vonatkozik a szintetikus technológiákra, azt eseti alapon értékeljük” (195). A harmadik táblázat azokat a rendelkezéseket gyűjti össze, amelyek értelmezése a szintetikus technológiákkal és médiával szemben nem egyértelmű. Itt találjuk a felelősségi szabályokat is, illetve az eljárásjogban például a hiteles bizonyítás szabályait, amelyeket erősen kikezd a könnyedén konstruálható elektronikus bizonyítékok (hamisított hang-, kép- és videófájlok) új világa. Végül az utolsó táblázat azokat a jogi rendelkezéseket és fogalmakat tartalmazza, amelyeket „a szintetikus technológiák tükrében esetleg újra kell gondolni” (197). A szerző ezek közé sorolja például a GDPR automatizált döntéshozatalra <em>(ADM) </em>vonatkozó szabályait. Ehhez érdemes hozzátenni, hogy ez a felülvizsgálat már elkezdődött abban az értelemben, hogy egy sor ágazati jogszabályba bekerültek az ADM-re vonatkozó <em>lex specialis</em>ok. Így például az AI Act megmagyarázhatósági előírásai, a kisvállalkozásokat a nagy piactérplatformokon védő úgynevezett <em>Platform-to-Business</em>-rendelet rangsorolással kapcsolatos szabályai vagy a készülő munkaplatform-irányelvben az algoritmikus menedzsmentet szabályozó normák mind ilyen <em>leges specialis</em>ként értelmezhetők.</p>
<p>A kötet „Kellemetlen kérdések és tökéletlen megoldások” címet viselő utolsó fejezete egyfajta összefoglalást ad az előző fejezetekből, és „bepillantást enged abba, ami előttünk áll” (199). Legérdekesebb részében a szabályozó dilemmáiról olvashatunk. Ezek első csoportja az általános dilemmák változatos gyűjteménye, idetartozik például a jól ismert Collingridge-dilemma, amelynek lényege, hogy amíg egy technológia új, addig könnyű szabályozni, de nem ismerjük a kockázatait és a társadalmi hatásait, amikor pedig már széles körben elterjedt, és ismerjük ezeket a hatásokat, akkor a társadalmi beágyazottság miatt nagyon nehéz szabályozni, különösen korlátozni. A szerző a közösségi médiát hozza példaként e dilemmára: ha tudtuk volna, hogy a közösségi média miként hathat negatívan a gyermekek egészségére, hogyan növeli a polarizációt és a szegregációt, és teremti meg az igazság utáni <em>(post-truth) </em>társadalmat, akkor sokkal szigorúbb szabályokat határoztunk volna meg. De találhatunk itt olyan kevésbé elvont dilemmákat is, mint például azt, hogy miként lehet egyszerre tükrözni a mélyhamisítás előnyeit és hátrányait a szabályozásban. Ezzel kapcsolatban a szexrobotok problémáját említi a könyv. „A HR-szexrobot növeli az ember autonómiáját azzal, hogy megadja neki mindazt a szexet, amire vágyik, ugyanakkor aláássa a lehetőségét egy érett emberi kapcsolat kialakítására” (220).</p>
<p>Végül a szerző tíz pontban fogalmaz meg ajánlást a döntéshozók számára. Ezek közül hármat emelek ki. (1) „Európai és nemzeti szinten a legtöbb politikus és döntéshozó nem rendelkezik elegendő tudással ahhoz, hogy megfelelően átlássa ezeket a technológiákat, még kevésbé hogy szabályozza őket. Ez lehetővé teszi a lobbisták és a technológiai cégek képviselői számára, hogy jelentős befolyást gyakoroljanak a jogalkotási folyamatra” (222). (2) Óriási kihívás, amellyel meg kell küzdeni, a külföldi hatalmaktól és technológiai vállalatoktól való nagy függőség. „Ennek megszüntetése érdekében a szabályozónak fontolóra kell vennie, hogy szárnyai alá veszi a generatív mesterséges intelligencia fejlesztését azáltal, hogy magához vonja az újító szerepét” (222). (3) A szerző fontos következtetése, hogy a szabályozónak nem kell félnie konkrét technológiai szabályok bevezetésétől, mert a jelenlegi gyakran általános szabályozás jogbizonytalanságot szül.</p>
<p>A könyv könnyen olvasható és rendkívül informatív összefoglalója a négy „valósághajlító” technológiának és az e technológiák körül felmerülő szabályozási dilemmáknak. Nemcsak a témával foglalkozó szabályozóknak ajánlható, hanem minden olyan szakembernek és jogásznak, aki érdeklődik a mesterséges intelligencia új kihívásai iránt, és nem utolsósorban kiváló tankönyvként szolgálhat az egyre növekvő számú MI-kurzusok szabályozási vagy társadalmi hatásokat taglaló tantárgyaihoz.</p>
<p style="text-align: right;"><em>Bart</em> <em>van</em> <em>der</em> <em>Sloot:</em> <em>Regulating</em> <em>the</em> <em>Synthetic</em> <em>Society:</em> <em>Generative</em> <em>AI, </em><em>Legal</em> <em>Questions</em> <em>and</em> <em>Societal</em> <em>Challenges,</em> <em>Oxford,</em> <em>Hart</em> <em>Publishing,</em> <em>2024</em></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
