Programozott valóságok hálójában – A mesterséges intelligencia felelős használatáról

Nézőpont – 2024. május 24., péntek | 19:45

Néhány hete a Duna televízió Delta című műsorában debütált egy főként a mesterséges intelligencia (MI) által létrehozott bemondónő, Bíró Ada, „aki” február óta a közösségi oldalakon is fent van. Laurinyecz Mihály egyetemi docenssel, a Pázmány Péter Katolikus Egyetem Hittudományi Karának morálteológiai tanszékvezető tanárával ennek apropóján beszélgettünk a mesterséges intelligenciáról.

– A közönség kettős érzéssel fogadta Bíró Adát, csodálattal és némi félelemmel. Ön mit szólt hozzá?

– Bíró Ada beleilleszkedik a korábbi technológiai fejlesztések sorába, például a videójátékokba, amelyekben szintén megjelennek emberi karakterek. A legtöbb játék azonban erőszakos, nem fejlődésre szolgál, nem a kreativitást és az együttműködést segíti elő, ráadásul függővé tesz azáltal, hogy a gépnek személyi jelleget ad. Ha emberi tulajdonságokat átviszünk a gépre, azzal becsapjuk magunkat, és elveszítjük a személyközi kapcsolatok elsőségét a technológiai eszközök javára. Az online kommunikáció sem lesz soha olyan hatású és tartalmú, mint egy személyes találkozás, mert a metakommunikációs eszközök hiányoznak belőle. Hiába van ezernyi érzelmet kifejező jel, ezek használatától a másik még nem fogja érzékelni, hogy mi van bennem, mert nem látja azokat a finom érzelmeket, amelyeket a mimika vagy egy-egy gesztus megjelenít. Bíró Ada mostani mosolya is erőltetett, gépies még. A technológia fejlődésével viszont olyan mértékű lehet a hasonlóság, hogy tényleg nem lehet majd megkülönböztetni az embertől.

– Bíró Adáról a közösségi oldalán van egy kép, amelyen egy hölggyel látható, vele „utazik”. Nem tudom megmondani, hogy ez a másik egy emberi személy vagy a mesterséges intelligencia által létrehozott alak. Az is megtévesztő, hogy Adának neve van.   

– Ember által programozott valóságot látni a képen, de az is probléma, hogyan nevezzük ezt az így megjelenő valóságot. Egy gépnek, technikai eszköznek nem adok nevet, Bíró Adának mégis van neve, sőt vezeték- és keresztneve is. A Teremtés könyvében a névadással az adott valóság lényegére vonatkozó meghatározás fogalmazódik meg. Ám amikor emberi nevet használunk a technológia által megjelenített valóságra, akkor a kettő összekeveredhet. Szeretnék minél elfogadhatóbbá tenni Bíró Adát, ami tulajdonképpen egy műalkotás, hiszen hatalmas munka, technológiai és szakmai tudás áll mögötte. Nem véletlen, hogy a Deltában jelenik meg, egy technológiai újításokat bemutató műsorban. 

– Morális szempontból nem kifogásolható az emberszerűsége? Szinte embert teremtünk a magunk képmására. Bár Bíró Ada mindig elmondja, hogy ő soha nem lesz ember, azért hozták létre, hogy segítsen.

– Az Egyháznak régóta az egyik feladata, hogy távol tartson a veszélyektől, de kicsit bele is szorult ebbe a szerepbe. A technológiai fejlesztésekben valóban megjelenhetnek veszélyek.

Ősi törvény, hogy nem szabad istent játszani, de az is tény, hogy magát az alkotást, a valóság átalakítását és felhasználását Isten adta az embernek. Hogy ebben meddig megyünk el, és hogyan használjuk, az tőlünk függ.

Ha ember formájúként jelenik meg egy technológiai alkotás, az valóban veszélyezteti az emberi méltóságot. 

– Sokan nem is tudják eldönteni, hogy Bíró Adához mint emberhez, vagy mint kreálmányhoz viszonyuljanak.

– Mivel emberi karakterként vezették be, természetes, hogy ez a bizonytalanság fennáll. Amikor beszélgetünk róla, nem tudjuk pontosan, mit mondjunk rá: az vagy ő. Igaz, manapság az üzletekben is gyakran hallani egy-egy árucikkel kapcsolatban: őt kérem.  

– Bíró Ada nem fog felfejlődni egy olyan szintre, hogy nem azt mondja, amit a szerkesztő vár tőle, hanem amit ő „akar”?

– Mi tesszük képessé arra is, hogy nélkülünk működjön. Bíró Adával kapcsolatosan ismertem meg a Deep Blue sakkszámítógép történetét, amely legyőzte Kaszparovot. Másodpercek alatt millió lépést tudott előre kiszámolni, ennyit képtelenség ellenőrizni. Ma fokozottan jelen van ez a veszély. Ha döntéseket bízunk a gépre, csak remélni tudjuk, hogy nem történt olyan hibás lépés a programozásban, ami miatt tévedni fog. A legjobb programok is tévedhetnek, úgy, hogy nem vesszük észre; például ha egy mágneses hatás következtében megsérül egy memóriaterület. Az sincs kizárva, hogy a gép képes lesz úgy fejleszteni magát, hogy ne derüljön ki a hibája. A ChatGPT, ha nem tud válaszolni egy kérdésre, most azt mondja, hogy nincsenek adatai; de az is előfordul, hogy kamuzik, és mégis válaszol valamit. 

– Milyen probléma merülhet még fel a mesterséges intelligencia fejlődése során?

– Itt van például az elérhetőség kérdése. A technológiai vívmányokat csak a tehetősebb réteg éri majd el, és ez hatalmas szakadást okozhat a társadalomban. Az iskolában ugyan tanítjuk ezeknek az eszközöknek a használatát, de a felhasználók számára csak egy bizonyos pontig érhetők el a fejlesztések, ha olcsók vagy ingyenesek. A munkában használt fejlesztéseknek ugyanis súlyos anyagi feltételeik vannak. Csak azok tudnak majd nagyot alkotni ezeken a területeken, akik mögött intézmény áll, vagy jelentős anyagi háttérrel rendelkeznek.

– A ChatGPT-nek megtanították, hogy bizonyos kérdésekre nem válaszolhat, például nem mondhatja meg, hogyan kell kirabolni egy bankot. Ezt azonban ki lehet játszani, az ügyesebbek ilyen témákban is szóra tudják bírni. Várható bármiféle erkölcsiség a mesterséges intelligenciától? Hiszen az emberek arra fogják felhasználni, amire akarják, látjuk, hogy a fegyverkezésben is fontos szerepe van.

– Ez is erkölcsiség, hiszen az ember táplálja bele, hogy milyen kérdésekre nem felelhet a gép. A válaszok ugyanakkor benne vannak. Olyan ez, mint amikor a tévében azok a csatornák is ott vannak, amiket a gyerekek nem nézhetnek. Csak egy gombnyomás kérdése, hogy mégis hozzáférjenek. Aki akarja, fel fogja használni ezeket az információkat is.

A mesterséges intelligencia bevonása a háborús tevékenységbe komoly veszélyeket hordoz. Az államtitkok ellenére valamennyire kiszámítható, mekkora a másik fél hadászati ereje, de mesterséges intelligenciát felhasználva egyre nehezebb lesz megállapítani, hogy kivel állunk szemben. Az oktatásban is megjelenik ez a probléma. A tanár feladata az is, hogy fejlessze a diák digitális kompetenciáit, de nem biztos, hogy fel fogja ismerni, hogy a diák írta-e a szemináriumi dolgozatot vagy a gép. Magam is találkoztam mesterséges intelligencia által írt szövegekkel. Felkértek például, hogy javítsak ki egy katolikus témájú dolgozatot, amit ChatGPT-vel készítettek. Unalmas volt a szöveg, felületes. Általános teológiai közhelyeket olvastam. Fel lehet fedezni a gép stílusát, ahogyan az emberét is. Hogy a mesterséges intelligencia használata kiszűrhető legyen, ellenőrző programokat állítanak össze.

– A mesterséges intelligenciát asszisztensként szeretnék használni, de aki él vele, vajon a produktumát a sajátjának tarthatja-e? Felmerülnek szerzői jogi kérdések is.

– A mesterséges intelligencia és az ember együttműködésével létrejövő eredményről, szellemi termékről megmondjuk, hogy a gép segítségével állítottuk elő. Kérdés, hogy amit az hozzáad a munkámhoz, valóban többletet jelent-e, vagy csak szaporítja az információt. Úgy tűnik, gyakran azért használjuk az MI-eszközöket, mert sok anyagot akarunk megjeleníteni, a mennyiségből akarunk előnyt kovácsolni. Sajnos nem az vonzza az embereket, ha valami mély és fontos, hanem a felületes információk, az érdekességek.

– Ada emberszerű. Nem formázták senkiről, olyasvalakit hoztak létre, aki még nem volt. Ugyanakkor felmerül az is, mennyire egyszerű lehet lemásolni valakit, ami súlyos következményekkel járhat. Hányszor láttunk deepfake-et, mennyi mindent meg lehet tenni Photoshoppal is!

– Ennek megvan a lehetősége, nem tudjuk megakadályozni. Ahogyan a kést is lehet jóra vagy rosszra használni, ugyanúgy a mesterséges intelligenciát is. Meg kell tanítani a felelős felhasználást. A jog, sajnos csak utólag, felállíthatja azokat a kategóriákat – akár a gép segítségével –, amelyekkel korlátok között tudja tartani a visszaéléseket.

– Mi a távlata a technológiának a hit területén?

– Ahogyan az oktatásban, úgy a hitoktatásban is létre lehet hozni hittant tanító programokat. A hit terjesztésében az első alkalmazott technológiai segítséget tulajdonképpen az apostoli levelek jelentették, hiszen ahelyett, hogy az apostol személyesen mondta volna el a mondandóját, elküldte a levelét. Hitoktatásra egy Adához hasonló eszközt is használni lehet. Tőlünk függ, hogy írunk-e vallásos tartalmat neki, amit nemsokára már maga is össze tud állítani. Úgy látom, a digitális világban a teológiai szélsőségek erőszakosabban vannak jelen. A normalitás vagy túlságosan óvatos, vagy megelégszik az eszközeivel. Kevesen ismerik a magisterium.com nevű katolikus ChatGPT-t, amely szentszéki dokumentumok alapján állít össze szövegeket. Csak katolikus teológiai forrásokból gyűjti össze az adatokat, de elképzelhető, hogy közhelyes lesz a mondandója, nem beszélve arról, hogy nem mindig követi a változásokat, például a halálbüntetést eltörlését.

Matematikai módszerrel nem lehet teológiailag helyes tanítást megfogalmazni, hiszen a Tanítóhivatal nem szótagmennyiségek statisztikai kombinációja, hanem a Szentlélek vezetésével tévedhetetlen.

– Sokan félnek attól, hogy a munkájukat átveszi a mesterséges intelligencia. 

– Azokat a területeket mindenképpen át tudja venni, amelyek gépesíthetők. De ezt már az ipari forradalom is megtette. Mi határozzuk meg, milyen feladatokat bízunk a gépre. Amikor az első gőzmalmot létrehoztuk, amikor az ember először használta kalapácsként a vizet, akkor is az embert helyettesítettük. A legénynek megtanították, hova, mekkorát üt a vason egy kovácsmester, de a gépkalapács mindig ugyanakkorát üt ugyanoda. Már ott elveszett a személyes jelleg. 

– Sokan beszélnek arról, hogy egyszer majd öntudatra ébred a mesterséges intelligencia.

– Nem tudunk a gépnek lelket adni.

Alapvető különbség a gép és az ember között, hogy az embernek van egy olyan tulajdonsága, amit nehezen tudunk megragadni: mi, hívők léleknek nevezzük. Ez az, ami az embert emberré teszi.

A gép ezt soha nem fogja elérni. Az viszont érdekes lesz, amikor összekeverik a kettőt, és az emberi agyba technológiai eszközöket építenek be. Például amikor majd egy értelmi képességét elveszített emberben pótolják az értelmet, mint ahogyan van már műkéz, amivel fogni lehet. Eljön az idő, amikor képesek leszünk mást is pótolni.

– Akár úgy is, hogy valakinek a hatalmas tudását valamilyen hordozón áttesszük egy másik emberbe?

– Ez egyelőre még tudományos fantasztikum, mert nem tudjuk, hol és hogyan tárolja az ember a tudását, képességeit. Tudjuk, hogy a gép hol és hogyan tárolja az információt, de hol van az emberi emlékezet, psziché, öntudat? Hogyan ragadható meg az emberi személyiség? Mitől vagyok az, aki, és az ikertestvérem, annak ellenére, hogy genetikailag nagyon hasonló hozzám, miért más mégis, mint én? Ez az a misztérium, amit a gép nem képes megközelíteni, ezért nem lesz soha lelke, személyisége.

– Nem lesz ijesztő az a világ, amikor egyre több Ada vesz majd körül bennünket?

– Amikor felhívok egy szolgáltató központot, és gép jelentkezik be, tudomásul veszem, tárgyalok vele, nyomkodom a gombokat, ahogyan mondja, és elérem, amit szeretnék. Ettől lehet idegenkedni. Az amishok néhány száz évvel ezelőtt hitbéli alapon azt mondták, csak egy bizonyos pontig mennek el a technológia alkalmazásában. Mindig lesznek olyanok, akik kilépnek a technológiából a természetbe, mások pedig nem tudnak majd létezni nélküle, hiszen a technológiától való függés veszélye is fennáll és erősödik.

– Az iskolában tanítanak digitális kultúrát. Nagy szükség lenne a technológiával való bánásmóddal kapcsolatos nevelésre is.  

– Az eszköz olyan friss, hogy nehezen döbbenünk rá, milyen függések, problémák alakulhatnak ki. Gyakorlatilag másfél év alatt létrejön egy technológiai újítás – egy-egy ilyenre régen háromszáz évet kellett várni. Tízévente olyan lépéseket élünk majd át, amelyekre most gondolni sem merünk. Tari Annamária egy könyvsorozatban vizsgálja a különböző generációkat, és kimutatja, milyen személyiségbeli torzulásokat szenvedhetnek el a fiatalok a digitális eszközök hatására. Felmegyünk Bíró Ada oldalára, és beszélgetünk vele, de nem vesszük figyelembe, hogy ez komolyan torzíthatja a személyiségünket. Fontos, hogy mit tartunk értéknek. Van, aki azt, hogy a technológia birtoklásával és használatával az élvonalba kerül. Erre alapoznak a reklámok, és sajnos a boldogságigénynek van egy olyan szintje, amikor a birtoklás elég. Arra is nevelni kell, hogy ne legyen elég. Vonzóvá kell tenni a fiatalok számára a klasszikus, személyközelibb helyzeteket és élményeket. Képezni kellene olyan szakembereket, akik tudatosan figyelnek a technológia várható hatásaira, előre felhívják a következő nemzedékek figyelmét a veszélyekre, és hatékony eszközöket tudnak adni az elkerülésükre.

– Mindent összevetve, akkor nem kell tartanunk egy ilyen jelenségtől, mint Bíró Ada?

– Óvatosnak kell lennünk, mert van veszélye, illetve az ember hajlamos arra, hogy visszaéljen ezekkel a lehetőségekkel. Ugyanakkor tény, hogy a félelem nem jó tanácsadó. Nem félni kell ettől a jelenségtől, hanem ismerni, körültekintő módon használni, megfelelően élni vele.

Fotó: Lambert Attila

Vámossy Erzsébet/Magyar Kurír

Az interjú nyomtatott változata az Új Ember 2024. május 19-i számában jelent meg.

Kapcsolódó fotógaléria