“Deep fake”: Lamtumirë “fake news”, merr formë aplikacioni i ri që po frikëson botën

0

Dipfejk (deepfake), përveç se është një hyrje në një lloj të ri të manipulimit teknologjik superior dhe të sofistikuar, ai është edhe zëvendësimi i mundshëm i ardhshëm për bisedat e incizuara të përgjuara, të cilat kulmuan në skenën botërore të intrigave politike përmes aferës Votergejt (Watergate), të cilin e përjetuan edhe në Maqedoninë e Veriut, me të ashtuquajturat “Bombat e Zaevit”.

Ndoshta rrallë kush ka mund të parashikonte skenën revolucionare nga filmi Forest Gamp, i xhiruar në vitin 1994, në të cilin personazhi kryesor është futur në pamjet origjinale arkivore si përshëndetet me presidentin e Shteteve të Bashkuara të Amerikës, Xhon Kenedi.

Edhe pse kjo ndërhyrje filmike dhe manipuluese nuk u tregua shumë e rëndësishme për zhvillimin e ardhshëm të industrisë kinematografike, ajo paraqet një njoftim për atë që pas një çerek shekulli do të jetë rreziku më i madh për manipulime në jetën reale dhe kërcënim për integritetin moral të njerëzve. Ky është një fenomen i ri i njohur si dipfejk.

Çfarë është dipfejk (dipfejk)?

Shpërndarja e lajmeve të rreme, si një mjet politik, ka qenë prej kohësh një problem në diskursin bashkëkohor politik.

Dipfejk, si pjesë e lajmeve të rreme, po bëhet dukuri e zakonshme, e cila shpejt shpërndahet në internet, rastet e së cilës, edhe për ekspertët është shumë vështirë ta shohin dallimin midis fotove apo videove autentike dhe të rreme, ndërsa konsumatorëve gjithçka u duket e vërtetë.

Dipfejk, është super-armë e re e lajmeve të rreme, sepse tani, jo vetëm që është e mundur të shpërndahen dezinformacione, por ato duken edhe të besueshme.

Përkufizimi më i thjeshtë për Dipfejk është se ai i përfaqëson mediat sintetike, në të cilit një person në një foto ose video ekzistuese zëvendësohet nga një personazh tjetër.

Si një subjekt i lajmeve të rreme, dipfejk janë video dhe fotografi të modifikuara elektronike, që i ndryshojnë ose i simulojnë njerëzit dhe ngjarjet si dhe e përdorin fuqinë bindëse të mediave audio-vizuale për të arritur efektin e tyre të rreme.

Ky term origjinën e ka nga fundi i vitit 2017, nga një përdorues i një rrjeti social për lajme dhe diskutime Reddit, i cili është firmosur me një emër të rrejshëm “deepfakes” (dipfejk).

Ai, sikurse edhe anëtarët e tjerë të komunitetit Reddit, ka shpërndarë video të rreme të cilat i ka krijuar vetë.

Dipfejk nuk është një fenomen unik vetëm në vitet e fundit. Zbatimi i manipulimit me foto për qëllime politike daton që nga fillimi i shekullit 20, gjatë diktaturës së Stalinit në Bashkimin Sovjetik, kur politikanët të cilit ishin të refuzuar nga partia, u janë hequr edhe nga fotografitë, me të vetmin qëllim që të fshihet edhe historia zyrtare dhe memoria kombëtare.

Rasti më i njohur ishin fotot me revolucionarin Trocki.

Nga ana tjetër, edhe personazhi kryesor në romanin e Orvelit “1984”, Vinston Smit, i cili ishte një zyrtar në Ministrisë e së Vërtetës, ka punuar në fshirjen e tekstit dhe të fotove nga gazetat e vjetra të njerëzve që ishin në konflikt me Vëllain e Madh.

Nëse kihet parasysh që romani “1984” është krijuar si rrëfim dhe pendim i Xhorxh Orvelit, ku thuhet se ai ka punuar si agjent i kolonisë angleze në Birmani, pastaj edhe si gazetar në BBC, përfundimi i mundshëm do të ishte se manipulimi me fotografitë në të kaluarën nuk ishte i panjohur edhe për shërbimet perëndimore.

Zhvillimi i shpejtë teknologjik ka mundësuar që edhe pengesat teknike të tejkalohen shumë më lehtë.

Kështu, në industrinë e filmit, videot dhe incizimet e modifikuara në mënyrë elektronike, janë bërë një mjet i pranuar artistik.

Për shembull, efektet speciale mund t’i bëjnë aktorët të shfaqen si më të rinj, ose të futen në video incizimet e vjetra.

Në mediat sociale, siç është Snapchat , tashmë është i pranishëm variacioni i kësaj teknologjie, i njohur si “shkëmbim i personazheve”, që përdoret gjerësisht nga abonentët.

Në gusht të vitit 2018, hulumtuesit nga Universiteti Berkli në Kaliforni, kanë publikuar një punim në të cilin është prezantuar një aplikim për vallëzime të rreme, që ka krijuar një përshtypje se çdokush mund të incizoj një video në të cilën ka mjeshtëri profesionale vallëzimi.

Ky projekt konsiderohet të jetë i pari që e ka shpërndarë zbatimin e dipfejk-ut në të gjithë trupin: aplikimet paraprake janë fokusuar (përqendruar) në kokën ose në pjesët e fytyrës.

Për njerëzit e zakonshëm, videot më të famshme të tilla janë ato në të cilat arrihen goditje të pamundura në basketboll, me sy të mbyllur ose me shpinën e kthyer nga shporta e basketbollit.

Të njëjtët hulumtues kanë prezantuar se si është përhapur dipfejk edhe në fusha të tjera, siç është falsifikimi i incizimeve mjekësore.

Në një video tregohet se si krijuesi i dipfejk-ut mund të injektojë ose të eliminojë automatikisht kancerin e mushkërive në pacientin e skanuar me 3D tomografi kompjuterike.

Rezultati ishte aq bindës sa që mashtroi tre radiologë, të cilët besuan atë që është prezantuar.

Aplikimi kinez “Zao” ka filluar t’ju mundësojë përdoruesve që t’i zëvendësojnë fytyrat e tyre me ato të personazheve nga skenat filmike dhe emisionet televizive, siç janë: Romeo dhe Xhulieta, Loja e froneve (Game of Thrones) dhe të tjerë.

Kjo mundësoi, për shembull, në filmin Shpëtimi i ushtarit Rajan, për një moment, ta zëvendësoni fytyrën e Mat Damonit me fytyrën tuaj, dhe ta shihni veten si aktor kryesor në këtë dramë të luftës.

Në qershor të vitit 2019, u publikua edhe aplikimi i quajtur Deep-Nude, në të cilin janë përdorur rrjetet nervore, konkretisht rrjetet e kundërta gjenerike (një strukturë gjenerike e ka trupin, kurse struktura tjetër rrobat / veshjen), për të hequr rrobat nga fotografitë e femrave.

Aplikimi ka kushtuar 50 dollarë – shumë kjo me të cilën keni mundësi që të shihni fqinjën tuaj të zhveshur.

Si e ka paralajmëruar shpërbërjen e Jugosllavisë seriali televiziv “Dinastia”?

Në parim, ekzistojnë tre metoda për krijimin e dipfejkut:

-së pari, shkëmbimi i fytyrës, së dyti, sinkronizimi i buzëve, dhe së treti, mjeshtër i kukullave.

Metoda e shkëmbimit të fytyrës i transmeton tiparet e fytyrës nga një person në kokën e personit tjetër.

Kjo, për shembull, i mundëson krijuesit të dipfejkut të bëjë ndërhyrje të caktuara në fytyrën e personit të synuar, duke krijuar përshtypjen se ai ose ajo në mënyrë natyrore i kanë krijuar veprimet e tilla të fytyrës.

Një metodë më e përpunuar teknikisht është ajo për sinkronizimin e buzëve, vetëm simulohen lëvizjet e buzëve të personit të synuar, kështu që ato u përshtaten fjalëve të reja të shqiptuara.

Kjo lejon manipulimin me video, me të cilën personi i synuar e thotë atë, që kërkohet të dëgjohet.

Megjithatë, ndonjëherë është e mundur të konstatohet se lëvizjet e buzëve nuk korrespondojnë gjithmonë me lëvizjet e tjera të fytyrës.

Duhet pasur parasysh se kjo metodë nuk është një prerje e ashpër e buzëve të një personi tjetër, të cilat aplikohen si buzë të personit të synuar.

Përkundrazi, goja autentike e subjektit të synuar bën lëvizje që e shqiptojnë fjalimin e dëshiruar.

Mjeshtri i kukullave ose marionetave është metoda më komplekse, e cila ende nuk është zhvilluar dhe përsosur plotësisht.

Me atë nënkuptohet manipulimi me fytyrën e personit në video, me të cilin plotësisht në mënyrë elektronike, manipulohet me lëvizjet e tij ose të saj të fytyrës.

Kjo do të thotë që jo vetëm zëri, por edhe të gjitha lëvizjet e fytyrës, mund të sintetizohen plotësisht.

Shikuesi nuk mund të vërejë më kurrfarë manipulime, sepse lëvizjet e muskujve të fytyrës janë në harmoni të plotë me lëvizjet e gojës.

Para pak kohësh, në rrjetet sociale, u shfaq një video, një insert nga seriali i njohur amerikan, “Dinastia”, në të cilin aktorja Xhoan Kolins flet për Jugosllavinë dhe Serbinë.

Shikuesit që lehtë manipulohen komentuan menjëherë se Aleksis e ka paralajmëruar shpërbërjen e Jugosllavisë qysh në fillimin e viteve ‘80 të shekullit të kaluar.

Zaev dhe Ceca viktimë të dipfejkut

Përveçse për argëtim, dipfejku keqpërdoret edhe për manipulime për qëllime politike, si edhe për shantazh dhe zhvatje.

Në Merilend, në Shtetet e Bashkuara të Amerikës, ka pasur një rast kur një i punësuar ka marrë një telefonatë me zërin e shefit të tij i cili ka kërkuar nga ai që të shkëmbejë të dhëna të rëndësishme për faturën.

Megjithatë, zëri në telefon nuk ishte zëri i shefit të tij, por një imitim sintetik, që ka rezultuar me dëme financiare për kompaninë e tij.

Një përdorim i ngjashëm për modifikimin e zërit u përdor edhe në intervistën në të cilën kryeministri Zoran Zaev flet me aktivisten Greta Tunberg.

Dipfejku përdoret edhe për keqpërdorime në industrinë pornografike.

Kjo nënkupton shantazhe me incizime të manipuluara në mënyrë elektronike, të cilat, gjoja, e tregojnë viktimën në situata komprometuese.

Një nga yjet më të mëdhenj rajonal të turbo-follkut, Ceca Razhnatoviq, së fundmi ishte shënjestra e një video incizimi të tillë.

Asgjë më pak shqetësuese nuk është rreziku nga dipfejk i cili është prezantuar si trillim në serialin britanik “The Capture”.

Ky serial e ndjek ushtarin britanik Shaun Emeri, i cili është akuzuar për një sulm dhe rrëmbimin e avokates së tij.

Pamjet e incizuara posaçërisht nga video, në të cilat shihet fytyra e Shaunit, por që janë dipfejk, përdoren për ta mashtruar policinë në dyshimin e tij.

Nëngrupi i dipfejkut është krijimi i një identiteti artificial.

Imazhet nga shumë persona që ekzistojnë, kombinohen në mënyrë elektronike për të prodhuar imazhe të një fytyre të re, që nuk i përshtatet asnjë personi tjetër.

Identitete të tilla të reja, unike elektronike mund të përhapen në botën reale me CV-në dhe dokumentet biografike që mund të porositen përmes internetit.

Personi i tillë më i famshëm artificial është me emrin Oliver Tejlor, identiteti i të cilit është përshkruar si student në një universitet në Britaninë e Madhe.

Personi Oliver Tejlor ka publikuar qëndrime personale në disa gazeta dhe ishte aktiv në mediat sociale me tekste politike të angazhuara në mënyrë kritike.

Duke eksploruar në internet, agjencia Reuters arriti të gjejë vetëm regjistrime të pakta për Oliver Tejlorin, kurse universiteti “i tij” nuk ka patur asnjë informacion për atë.

Edhe pse shumë ekspertë janë pajtuar se fotografia “e tij” është dipfejk, gazetat nuk i kanë tërhequr artikujt “e tij”, madje as nuk i kanë larguar nga ëeb-faqet e tyre.

Ekziston frika se këto teknika janë fushë beteje e re në dezinformimin, me të cilin, ky variant i mashtrimit me identitetin, mund të përdoret edhe për raste kur përgatitet ndonjë operacion spiunimi.

A ka “shpëtim” nga dipfejku?

Zhvillimi i ardhshëm i dipfejkut do të na çojë në fazën teknologjike që nuk do të jetë më e nevojshme të jesh një ekspert kompjuteri apo teknik që të mund të manipulohet me sukses me foto dhe video, kurse pengesat teknologjike për prodhimin e dipfejkut do të kapërcehen shumë më lehtë.

Fatkeqësisht, demokratizimi i teknologjisë dhe i internetit ka sjëllë një qasje të re e cila ka shfaqur dhe disavantazhet e tij, kështu që tani secili mund të krijojë dipfejk.

Megjithatë, sado që duket e përsosur, është ende e mundur që të zbulohet në mënyrë elektronike një video me dipfejk, edhe pse nevojiten shumë përpjekje teknike.

Universiteti Berkli në Kaliforni, aktualisht është duke punuar në zhvillimin e metodave të tilla.

Në parim, këto metoda të zbulimit bazohen në krijimin e modeleve tipike të lëvizjes për individët. Me fjalë të tjera, secili person e ka numrin e vet të lëvizjeve personale të kokës, gojës dhe muskujve, që u përgjigjen fjalëve të shqiptuara dhe rezultojnë se kanë lëvizje unike.

Një skemë relativisht e saktë mund të llogaritet nga ky kombinimi faktorëve të ndryshëm.

Një tjetër mundësi teknike për kufizimin e efektit të videove me dipfejk është përfshirja automatike e nënshkrimit elektronik në shumicën e të dhënave të tjera kur fillimisht incizohet video ose fotografia.

Në këtë mënyrë, origjinalet mund të certifikohen me të ashtuquajturin “numër unik i amzës”. Kjo teknologji, e quajtur “hash”, tashmë ekziston prej një kohe të gjatë, dhe përdoret me sukses në aplikime të ndryshme siç është: transferimi i të dhënave.

Ai mundëson, sa herë që ka ndonjë ndryshim në datotekën origjinale, në mënyrë automatike të ndryshohet edhe hash-i (numri i amzës), gjë që mund të sigurojë një tregues fillestar për manipulimin e mundshëm.

Paralelisht me zhvillimin e instrumentit teknik, i cili, gjithnjë e më shumë, do të zhvillohet në luftën kundër dipfejk-ut, duhet të ketë edhe një reagim përkatës për miratimin e masave rregullatore dhe legjislative.

Në Gjermani, Shtetet e Bashkuara të Amerikës, Kinë, Mbretërinë e Bashkuar dhe Kanada, tashmë ka një praktikë ligjore që e sanksionon dipfejk-un, që nuk është me karakter zbavitës.

Gjithashtu, duhet filluar edhe me një fushatë të gjerë për informimin dhe ngritjen e vetëdijes sociale dhe politike për mundësitë dhe rreziqet që vijnë nga kjo teknologji.

Përdoruesit e Internetit duhet të informohen se jo çdo video e postuar në mediat sociale është e vërtetë, pavarësisht se mund të duket kështu.

Si pasojë e pakujdesisë së kabinetit të kryeministrit Zoran Zaev, edhe Maqedonia e kaloi pragun në përballjen me fenomenin dipfejk. Prandaj, edhe në vendin tonë, këtij problemi duhet t’i qasemi në mënyrë serioze, duke marrë në konsideratë nxitjen e një fushate të gjerë për të rritur vetëdijen për praninë e dipfejkut në internet, sigurimin e mbrojtjes së domosdoshme teknike-softerike dhe për zbulimin e tij, si dhe hartimin e rregullave ligjore kundër këtyre të ashtuquajturave gënjeshtra bindëse.

Me paraqitjen e dipfejk-ut, rreziku kryesor që kërcënon njerëzimin është se mund të bjerë në epokën më drastike të manipulimit, në të cilën nuk do të jetë më e mundur të përcaktohet nëse përmbajtja e videove, fotove etj, është e vërtetë apo e rreme, çka tregon se mund të minohet koncepti themelor shoqëror, i ç’orientuar nga çfarë është e vërtetë apo e rreme.(abcnews.al)

Artikulli i mëparshëmJaponia ngre e para makinën fluturuese me një person në bord
Artikulli i radhësSa kushton kurimi nga COVID-19 për një pacient në Shqipëri