Հիմնական տանողներ
- Քանի որ խորը ֆեյքերը դառնում են ավելի հեշտ է պատրաստել, դրանք հայտնաբերելու նոր և կատարելագործված եղանակները դարձել են առաջնահերթություն:
- Facebook-ի «deepfake-spotting» տեխնոլոգիան օգտագործում է հակադարձ մեքենայական ուսուցում՝ պարզելու, թե արդյոք տեսանյութը խորը կեղծ է, թե ոչ:
- Փորձագետներն ասում են, որ բլոկչեյն տեխնոլոգիան օգտագործելը լավագույն միջոցն է տեսնելու՝ տեսանյութն իրական է, թե ոչ, քանի որ մեթոդը հիմնված է համատեքստային տվյալների վրա:
Facebook-ը վստահ է իր մեքենայական ուսուցման մոդելին, որը պայքարում է խորը ֆեյքերի դեմ, սակայն մասնագետներն ասում են, որ մեքենայական ուսուցումն ինքնին չի փրկի մեզ խորը կեղծիքների խաբեությունից:
Ընկերությունները, ինչպիսիք են Facebook-ը, Microsoft-ը և Google-ը, բոլորն աշխատում են համացանցում և սոցիալական ցանցերում տարածվող խորը կեղծիքների դեմ պայքարելու համար: Թեև մեթոդները տարբերվում են, այս կեղծ տեսանյութերը հայտնաբերելու համար կա մեկ հնարավոր հիմար մեթոդ՝ բլոկչեյններ։
«[Blockchains]-ը ձեզ պարզապես տալիս է մեծ ներուժ՝ հաստատելու խորը կեղծիքն այնպես, որ դա վավերացման լավագույն ձևն է, որը ես կարող եմ տեսնել», - Սթիվեն Վոլֆրամ, Wolfram Research-ի հիմնադիր և գործադիր տնօրեն և A New Kind of-ի հեղինակ: Science-ը հեռախոսով հայտնել է Lifewire-ին։
Facebook-ի Deepfake-Spotting Tech
Deepfake տեխնոլոգիան արագորեն աճել է վերջին մի քանի տարիների ընթացքում: Խաբուսիկ տեսանյութերը օգտագործում են մեքենայական ուսուցման մեթոդներ՝ այնպիսի բաներ անելու համար, ինչպիսիք են՝ մեկի դեմքը ուրիշի մարմնի վրա դնելը, ֆոնային պայմանները փոխելը, շրթունքների կեղծ համաժամացումը և այլն: Դրանք տատանվում են անվնաս պարոդիաներից մինչև հայտնիներին կամ հասարակական գործիչներին ստիպելը ասել կամ անել մի բան, որը նրանք չեն արել:
Փորձագետներն ասում են, որ տեխնոլոգիան արագորեն զարգանում է, և որ խորը կեղծիքները միայն ավելի համոզիչ կդառնան (և ավելի հեշտ է ստեղծել), քանի որ տեխնոլոգիան դառնում է ավելի լայնորեն հասանելի և ավելի նորարար:
Facebook-ը վերջերս ավելի շատ պատկերացում տվեց իր խորը կեղծիքների հայտնաբերման տեխնոլոգիայի մասին՝ Միչիգանի պետական համալսարանի հետ համագործակցությամբ: Սոցիալական ցանցն ասում է, որ այն հիմնված է հակադարձ ինժեների վրա՝ արհեստական ինտելեկտի միջոցով ստեղծված մեկ պատկերից մինչև այն արտադրելու համար օգտագործվող գեներատիվ մոդելը:
Հետազոտող գիտնականները, ովքեր աշխատել են Facebook-ի հետ, ասում են, որ մեթոդը հիմնված է AI մոդելի եզակի օրինաչափությունների բացահայտման վրա, որն օգտագործվում է խորը կեղծիք ստեղծելու համար:
«Ընդհանրացնելով պատկերի վերագրումը բաց հավաքածուի ճանաչմանը, մենք կարող ենք ավելի շատ տեղեկություններ ստանալ գեներատիվ մոդելի մասին, որն օգտագործվում է խորը կեղծիք ստեղծելու համար, որը գերազանցում է այն գիտակցումը, որ այն նախկինում չի տեսել: «Դիփֆեյք» հավաքածուի օրինաչափությունների միջև նմանություններ գտնելով՝ մենք կարող ենք նաև պարզել, թե արդյոք պատկերների շարքը ծագել է մեկ աղբյուրից», - գրել են հետազոտող գիտնականներ Սի Ին և Թան Հասները Facebook-ի բլոգի գրառման մեջ դրա խորը կեղծ հայտնաբերման մեթոդի մասին:
Wolfram-ն ասում է, որ իմաստալից է, որ դուք կօգտագործեիք մեքենայական ուսուցումը զարգացած AI մոդելը (խորը կեղծիք) հայտնաբերելու համար: Այնուամենայնիվ, տեխնոլոգիան խաբելու տեղ միշտ կա:
«Ես ամենևին զարմացած չեմ, որ կա [deepfakes-ը հայտնաբերելու] մեքենայական ուսուցման պատշաճ եղանակ», - ասաց Վոլֆրամը: «Միակ հարցն այն է, որ եթե բավական ջանք գործադրես, կարո՞ղ ես խաբել դրան: Համոզված եմ, որ դու կարող ես»:
Deepfakes-ի դեմ պայքարն այլ կերպ
Փոխարենը, Վոլֆրամն ասաց, որ կարծում է, որ բլոկչեյնի օգտագործումը լավագույն տարբերակը կլինի որոշակի տեսակի խորը կեղծիքները ճշգրիտ հայտնաբերելու համար: Մեքենայական ուսուցման նկատմամբ բլոկչեյն օգտագործելու նրա կարծիքը վերադառնում է 2019 թվականին, և նա ասաց, որ, ի վերջո, բլոկչեյն մոտեցումը կարող է ավելի ճշգրիտ լուծում տալ մեր խորը կեղծ խնդրին։
«Ես ակնկալում եմ, որ պատկերների և տեսանյութերի դիտողները կարող են կանոնավոր կերպով ստուգել բլոկչեյնները (և «տվյալների եռանկյունացման հաշվարկները») մի փոքր այնպես, ինչպես վեբ բրաուզերներն այժմ ստուգում են անվտանգության վկայագրերը», - գրել է Վոլֆրամը Scientific American-ում հրապարակված հոդվածում:
Քանի որ բլոկչեյնները տվյալները պահում են բլոկներում, որոնք այնուհետև շղթայված են միմյանց ժամանակագրական կարգով, և քանի որ ապակենտրոնացված բլոկչեյններն անփոփոխ են, մուտքագրված տվյալներն անշրջելի են:
Միակ հարցն այն է, որ եթե բավական ջանք գործադրես, կարո՞ղ ես խաբել դրան: Համոզված եմ, որ կարող ես։
Վոլֆրամը բացատրեց, որ տեսանյութը բլոկչեյնում տեղադրելով, դուք կկարողանաք տեսնել դրա նկարահանման ժամանակը, գտնվելու վայրը և այլ համատեքստային տեղեկություններ, որոնք թույլ կտան ձեզ իմանալ, թե արդյոք այն որևէ կերպ փոփոխված է:
«Ընդհանուր առմամբ, ունենալով ավելի շատ մետատվյալներ, որոնք համատեքստում են նկարը կամ տեսանյութը, այնքան ավելի հավանական է, որ դուք կարողանաք պատմել», - ասաց նա: «Դուք չեք կարող ժամանակ կեղծել բլոկչեյնի վրա»:
Սակայն, Վոլֆրամն ասաց, որ օգտագործվող մեթոդը, լինի դա մեքենայական ուսուցում, թե բլոկչեյնի օգտագործումը, կախված է խորը կեղծիքի տեսակից, որից դուք փորձում եք պաշտպանվել (այսինքն՝ Քիմ Քարդաշյանի՝ ինչ-որ հիմար բան ասելու տեսանյութը կամ տեսանյութը. քաղաքական գործիչը հայտարարություն կամ առաջարկություն է անում):
«Բլոկչեյն մոտեցումը պաշտպանում է որոշակի տեսակի խորը կեղծիքներից, ճիշտ այնպես, ինչպես մեքենայական ուսուցման պատկերների մշակումը պաշտպանում է որոշակի տեսակի խորը կեղծիքներից», - ասաց նա:
Եզրակացությունը, կարծես, բոլորիս համար զգոնությունն է, երբ խոսքը վերաբերում է առաջիկա խորը կեղծ ջրհեղեղի դեմ պայքարին: