Եվրոպայում իր տեսակի մեջ առաջին օրենքը․ Դանիայում հնարավոր կլինի հեղինակային իրավունքով պաշտպանել դեմքը, մարմինը և ձայնը դիփֆեյքերի դեմ պայքարում
Քաղաքականություն
21.07.2025 | 20:28
Բոլորս լսել ենք սարսափելի պատմություններ այն մասին, թե ինչպես է մեկը հանդիպում իր կրկնօրինակին՝ մի մարդու, որը բացարձակապես նման է իրեն, բայց նրա երկվորյակը չէ։ Այնուամենայնիվ, արհեստական բանականությունը (ԱԲ) հնարավորություն է տվել աշխարհում յուրաքանչյուրին ստեղծել մարդու գերիրատեսական կլոն, որը կոչվում է դիփֆեյք (deepfake)։ Սակայն Դանիան ունի այս հարցի նորարարական լուծում՝ բոլորին տալով իրենց դեմքի և ձայնի հեղինակային իրավունքը։ Այս մասին ասվում է Metro-ի անդրադարձում։
Դանիայի կառավարությունը քննարկում է նորարարական օրինագիծ, որը քաղաքացիներին կտա ավելի մեծ վերահսկողություն իրենց կերպարի նկատմամբ՝ ընդլայնելով հեղինակային իրավունքի մասին օրենքը, որպեսզի բոլորն ունենան հեղինակային իրավունք իրենց մարմնի նկատմամբ։
Մասնագետները Metro-ին հայտնել են, որ օրինագիծը Եվրոպայում իր տեսակի մեջ առաջինն է, որն անօրինական կդարձնի մեկ այլ անձի դիփֆեյք լուսանկարների մեծ մասի տարածումը։ Եթե մեկը դիփֆեյք տարածի առանց անձի համաձայնության, նա չի ենթարկվի բանտարկության կամ տուգանքի, բայց տուժող կողմը կկարողանա պահանջել փոխհատուցում։ Սոցիալական ցանցերի օգտատերերը նաև իրավունք կունենան պահանջել, որ հարթակները հեռացնեն իրենց թվային կեղծ տարբերակը։
«Շուտով անհնար կլինի տարբերակել իրական և մանիպուլացված նյութերը: Քանի որ պատկերներն ու տեսանյութերը նույնպես արագորեն ներդրվում են մարդկանց ենթագիտակցության մեջ, պատկերի կամ տեսանյութի թվային մանիպուլյացիաներով մշակված տարբերակները կարող են հիմնավոր կասկածներ առաջացնել իրական պատկերների վերաբերյալ, և գուցե նույնիսկ լիովին սխալ ընկալում ստեղծել»,- հայտարարել է Դանիայի մշակույթի նախարարությունը։
Օրենքում բացառություն կլինեն միայն արհեստական բանականության կողմից ստեղծված կեղծիքները, որոնք նախատեսված են երգիծանքի, պարոդիայի կամ սոցիալական քննադատության համար։
Մշակույթի ոլորտի պաշտոնյաները շուտով օրինագիծը կներկայացնեն խորհրդարան, որը, ինչպես սպասվում է, կընդունվի ձմռանը։
Ինչ է դիփֆեյքը (deepfake)
Դիփֆեյք տեխնոլոգիան օգտագործում է արհեստական բանականության գործիքներ՝ ստեղծելու գրեթե կատարյալ պատկերներ, տեսանյութեր կամ աուդիո նյութեր, որոնք թվում են իրական մարդիկ, Metro-ին ասել է Kocho կիբերանվտանգության ընկերության գլոբալ անվտանգության գործողությունների ղեկավար Աննա Ուեբը։
2023 թվականին ստեղծվել է 65,820 դիփֆեյք տեսանյութ, ինչը 550%-ով ավելի է, քան 2019 թվականին։
«Այս կեղծիքը հաճախ արվում է առանց անհատի համաձայնության։ Քանի որ արհեստական բանականության տեխնոլոգիան դառնում է ավելի մատչելի, չարաշահման հավանականությունը մեծանում է»,- ասել է Ուեբը։
Նման չարաշահումը կարող է ներառել ոչ համաձայնեցված պոռնոգրաֆիայի ստեղծում, ապատեղեկատվության տարածում և խաբեություն։
Օրինակ՝ փետրվարին տեղի ունեցած խարդախության արդյունքում մի մարդ կորցրել է 3,250 ֆունտ սթերլինգ՝ Իլոն Մասկի մանրակրկիտ արված դիփֆեյքի պատճառով, որում նա խնդրել է ներդրում կատարել: Տեսանյութերում օգտագործվել են արհեստական բանականության մի շարք տեխնիկաներ, ինչպիսիք են ձայնի կլոնավորման գործիքները և շրթունքների շարժի համաժամանակեցման տեխնոլոգիան՝ աշխարհի ամենահարուստ մարդու կերպարը վերստեղծելու համար: Բայց դա միայն Մասկը չէ։
«Մենք տեսել ենք «սեքսորթինգի» դեպքեր, երբ խաբեբաները ստեղծել են մարդկանց կեղծ մերկ պատկերներ՝ նրանց ստիպելու և մանիպուլյացիայի ենթարկելու մտադրությամբ՝ փող կամ անձնական տվյալներ փոխանցելու համար»,- ասել է NordVPN-ի գլխավոր տեխնոլոգիական տնօրեն Մարիջուս Բրիդիսը։
Ինչո՞ւ են խաբեբաներն այդքան սիրում դիփֆեյքը
Բաց տեխնոլոգիաների ինստիտուտի կիբերանվտանգության տարածաշրջանային նախագահ Թոմ Վազդարը նշել է, որ խաբեբաների՝ դիփֆեյքերին դիմելը «էմոցիոնալ հաքերության» օրինակ է։
«Մենք այլևս գործ չունենք հարձակվողների հետ։ Մենք գործ ունենք մարդկանց հետ, ովքեր շահագործում են վիշտը, վստահությունը, միայնությունը և հետաքրքրասիրությունը։ Ահա թե ինչն է դիփֆեյքերը դարձնում այդքան վտանգավոր. դրանք ինքնությունը զենք են դարձնում»,- ասել է նա Metro-ին։
Կարո՞ղ է դեմքի հեղինակային իրավունքն իսկապես պայքարել դիփֆեյքի դեմ
Sumsub-ում արհեստական բանականության համապատասխանության և քաղաքականության մասնագետ Նատալիա Ֆրիցենն ասել է, որ դիփֆեյքերի դեմ պայքարի Դանիայի մոտեցումը տարբերվում է այլ երկրներից։
«Մյուս օրինագծերի մեծ մասը փորձում է զսպել դիփֆեյքերը՝ կենտրոնանալով ջրանիշերի և թափանցիկության այլ պահանջների վրա։ Սակայն սա պատասխանատվությունը դնում է դիփֆեյքերը ստեղծողների վրա, այլ ոչ թե դրանք տարածելու համար օգտագործվող կայքերի վրա, և զոհերին քիչ միջոցներ է առաջարկում»,- ասել է նա։
Վազդարն էլ նշել է, որ Դանիայի օրենքը ոչ մի կերպ լուծում չէ, այլ դիփֆեյքերի աճին իր տեսած ամենահամարձակ արձագանքներից մեկը։
«Այն մարդկանց տալիս է պարզ կիրառման գործիք՝ սա իմ դեմքն է, սա իմ ձայնն է, հեռացրե՛ք այն։ Խոսքն անձնական լիազորությունների վերականգնման մասին է այն դարաշրջանում, երբ տեխնոլոգիան ավելի ու ավելի է ընդօրինակում մեզ»,-ասել է նա։
Այնուամենայնիվ, նա կասկածում է, թե որքան արդյունավետ կարող է լինել օրինագիծը՝ հաշվի առնելով, որ օրենքը կկիրառվի միայն Դանիայի տարածքում։
Վեբ հետախուզության փորձագետ, Oxylabs ընկերության գործադիր տնօրեն Ջուլիուս Չերնյաուսկասը նույնպես կասկածի տակ է դրել օրինագծի արդյունավետությունը։
«Բայց դա անհնար չէ։ Արհեստական բանականության հայտնաբերման գործիքները կատարելագործվում են, և կառավարությունները կարող են ճնշում գործադրել սոցիալական ցանցերի վրա՝ վտանգավոր բովանդակությունը հեռացնելու համար ավելի արագ գործել»,- հայտարարել է նա։
Թարգմանությունը՝ Էմմա Չոբանյանի