Ֆեյք իրականություն. ինչպես են գեներատիվ նեյրոցանցերը փոխում ինտերնետը
Հաղորդաշարեր
26.02.2024 | 17:25
Կարող եք նկատած չլինել, բայց վերջին երկու տարվա ընթացքում ինտերնետը կտրուկ փոխվել է։ Եթե մինչ այդ օգտակար կոնտենտի հետ միասին ինտերնետը գեներացնում էր նաև ֆեյք ինֆորմացիա, որն անհրաժեշտ էր ստուգել ու որից խուսափելու միակ պահանջը բավարար մեդիագրագետ լինելն էր, ապա այսօրվա ինտերնետը ստեղծում է ֆեյք իրականություն, ու այստեղ թացը չորից տարբերելը գնալով ավելի ու ավելի դժվար է լինելու՝ անգամ կոփված մարդկանց համար։ Արդյունքում, մենք դառնալու ենք ավելի կասկածամիտ ու ցանկացած ինֆորմացիայի a priori վերաբերվելու ենք որպես ֆեյքի։
Ինչպե՞ս ստացվեց, որ ինտերնետն այսօր կարող է հեշտությամբ խաբել ցանկացածին։ Պատճառը վերջին շրջանում բուռն զարգացող արհեստական բանականության գեներատիվ տեխնոլոգիաներն են։ Գեներատիվ չաթ-բոտերը տեքստային ցանկացած հարցման պատասխանում են բնական լեզվով ու եթե չիմանաս, որ դիմացինդ ծրագիր է, շատ դժվար կլինի տարբերել մարդ-զրուցակցից։
Նեյրոցանցը գեներացրեց «Ալեքսանդր Թամանյանը մտամոլոր քայլում է ժամանակակից Երևանում» հարցումը պատկերի տեսքով։ Իհարկե, առայժմ ծրագիրը վատ է պատկերացնում, թե ով է Թամանյանն ու ինչ տեսք ունի Երևանը, սակայն դա ժամանակի հարց է։
Նկարներ ստեղծող նեյրոցանցերը օգտատիրոջ տեքստային հայցման հիման վրա գեներացնում են բարձր որակի պատկերներ, որոնք գնալով ավելի ու ավելի դժվար է տարբերել մարդու ձեռքով գրվածներից։ Դա էլ բավական չէր, օրերս ոլորտի առաջատար OpenAI ընկերությունը ներկայացրեց Sora նեյրոցանցը, որը տեքստային հայցման հիման վրա գեներացնում է բարձրորակ տեսանյութեր։
Sora-ն իսկական բեկում է։ Պատկերացրեք, տեքստային պատուհանում գրում եք. «Ալեքսանդր Թամանյանը մտամոլոր քայլում է ժամանակակից Երևանում»։ Ու մի քանի րոպե հետո ծրագիրը ձեզ տալիս է բարձր որակի տեսանյութ, որը ոչնչով չի տարբերվում իրական տեսախցիկով նկարվածից, ու որում Թամանյանը մտահոգ քայլում է 2024-ի Երևանի փողոցներով, զարմանում ավտոմեքենաների քանակից ու երթևեկության վատ կազմակերպումից։
Եթե ուզում էիք սոցիալական գովազդ, էլ պետք չէ դերասաններ գտնել, օպերատոր ու տեսախցիկ, օրվա հարմար ժամ, հետո` մոնտաժ, վերամշակում և այլն։ Ընդամենը` երկու տողանոց տեքստ։
Հնչում է ֆանտաստիկ, բայց սա արդեն իրականություն է։ Ու ինչպես ցանկացած նոր տեխնոլոգիա, այն ունի երկու կողմ` լավ ու վատ։
Լավն այն է, որ սա զգալիորեն հեշտացնում է մարդկանց կյանքը։ Ի վերջո, պետք է հիշել, որ գեներատիվ նեյրոցանցերը կոչված չեն մարդկանց փոխարինելու, դրանք գործիքներ են, որոնք մի կողմից հեշտացնում են պրոֆեսիոնալների գործը, մյուս կողմից` ավելի լայն մասսաների ներգրավում ստեղծագործական գործունեության մեջ։
Եթե մարդը ունի լավ երևակայություն, բայց չունի նկարելու տաղանդ, նեյրոցանցն իր փոխարեն դա կանի։ Արդյունքը դեպքերի մեծ մասում կախված է տեքստից, որը դուք մուտքագրում եք. որքան այն հստակ ձևակերպված ու մանրամասն լինի, այնքան մեծ է հավանականությունը, որ նեյրոցանցը կգեներացնի հենց այն, ինչ ուզում եք. հետևաբար, ստեղծագործական աշխատանքը դեռ մնում է. ձեր ցանկացածը ստանալու համար, միևնույն է, պետք է ջանքեր գործադրեք։
Բացասականը, ինչպես նշված է նյութի սկզբում, ֆեյք իրականության ստեղծումն է։ Արդեն հիմա սոցիալական ցանցերում բազմաթիվ են գեներացված պատկերները, որոնք ներկայացվում են, որպես իրական ու որոնց մարդկանց մեծ մասը հավատում է։
Դժվար չէ պատկերացնել, թե ինչ կլինի, եթե դրանց միանան նաև գեներացված տեսանյութերը. կոնկրետ անձանց տարբեր կերպ վարկաբեկող տեսանյութեր, սուտ տեղեկություններ տարածող տեսանյութեր և այլն։ Ֆակտ-չեքինգի գործը զգալիորեն կբարդանա։
OpenAI-ը նշում է, որ մինչև Sora-ն համընդհանուր հասանելի դարձնելը, աշխատում են այն անվտանգ դարձնելու ուղղությամբ։ Մեդիայում ապատեղեկատվության, ատելություն սերմանելու ու կողմնակալության հետ կապված կոնտենտի փորձագետները զբաղվում են մոդելի թեստավորմամբ։
Ընկերությունը հավաստիացնում է, որ ստեղծում է մոլորեցնող կոնտենտը հայտնաբերող գործիքներ, որոնք կարող են տեղեկացնել օգտատիրոջը, եթե տեսանյութը պատրաստվել է Sora-ով։ Կիրառվում են նաև անվտանգության ապահովման ավանդական մեթոդներ, որոնք ներդրվել են դեռ ChatGPT-ի գործարկման ժամանակներից։
Տեքստի դասակարգման համակարգն ավտոմատ ստուգելու ու մերժելու է բռնության, սեքսուալ կոնտենտի, ատելություն սերմանելու, հայտնի մարդկանց հետ կապված ու օգտագործման կանոնները խախտող այլ հարցումներ։ Բնականաբար, համակարգը ստուգելու է նաև արդեն պատրաստի տեսանյութի յուրաքանչյուր կադրը։
«Մենք ներգրավելու ենք քաղաքական գործիչների, մանկավարժների ու ստեղծագործողների ամբողջ աշխարհից` հասկանալու համար նրանց խնդիրներն ու գտնելու այս նոր տեխնոլոգիայի կիրառման դրական տարբերակները։ Չնայած լայնածավալ հետազոտություններին ու փորձարկումներին, մենք չենք կարող կանխատեսել բոլոր օգտակար միջոցները, որոնցով մարդիկ օգտագործելու են մեր գործիքը, ինչպես նաև դրա չարաշահման բոլոր հնարավորությունները», – նշում են ընկերությունից։
Ամեն ազդեցություն ունի հակազդեցություն. արդեն հիմա կան նեյրոցանցային գործիքներ, որոնք կարող են հեշտությամբ պարզել, թե տվյալ պատկերը իրակա՞ն է, թե՞ գեներացված։ Վստահաբար, OpenAI-ում նման ծրագրեր կստեղծվեն նաև տեսանյութերի համար։ Մնում է մարդիկ բավարար մեդիագրագետ լինեն` դրանք օգտագործելու համար։
Արման Գասպարյան