Facebook-ի Deepfake տեխնոլոգիան մեզ չի փրկի, ասում են փորձագետները

Բովանդակություն:

Facebook-ի Deepfake տեխնոլոգիան մեզ չի փրկի, ասում են փորձագետները
Facebook-ի Deepfake տեխնոլոգիան մեզ չի փրկի, ասում են փորձագետները
Anonim

Հիմնական տանողներ

  • Քանի որ խորը ֆեյքերը դառնում են ավելի հեշտ է պատրաստել, դրանք հայտնաբերելու նոր և կատարելագործված եղանակները դարձել են առաջնահերթություն:
  • Facebook-ի «deepfake-spotting» տեխնոլոգիան օգտագործում է հակադարձ մեքենայական ուսուցում՝ պարզելու, թե արդյոք տեսանյութը խորը կեղծ է, թե ոչ:
  • Փորձագետներն ասում են, որ բլոկչեյն տեխնոլոգիան օգտագործելը լավագույն միջոցն է տեսնելու՝ տեսանյութն իրական է, թե ոչ, քանի որ մեթոդը հիմնված է համատեքստային տվյալների վրա:
Image
Image

Facebook-ը վստահ է իր մեքենայական ուսուցման մոդելին, որը պայքարում է խորը ֆեյքերի դեմ, սակայն մասնագետներն ասում են, որ մեքենայական ուսուցումն ինքնին չի փրկի մեզ խորը կեղծիքների խաբեությունից:

Ընկերությունները, ինչպիսիք են Facebook-ը, Microsoft-ը և Google-ը, բոլորն աշխատում են համացանցում և սոցիալական ցանցերում տարածվող խորը կեղծիքների դեմ պայքարելու համար: Թեև մեթոդները տարբերվում են, այս կեղծ տեսանյութերը հայտնաբերելու համար կա մեկ հնարավոր հիմար մեթոդ՝ բլոկչեյններ։

«[Blockchains]-ը ձեզ պարզապես տալիս է մեծ ներուժ՝ հաստատելու խորը կեղծիքն այնպես, որ դա վավերացման լավագույն ձևն է, որը ես կարող եմ տեսնել», - Սթիվեն Վոլֆրամ, Wolfram Research-ի հիմնադիր և գործադիր տնօրեն և A New Kind of-ի հեղինակ: Science-ը հեռախոսով հայտնել է Lifewire-ին։

Facebook-ի Deepfake-Spotting Tech

Deepfake տեխնոլոգիան արագորեն աճել է վերջին մի քանի տարիների ընթացքում: Խաբուսիկ տեսանյութերը օգտագործում են մեքենայական ուսուցման մեթոդներ՝ այնպիսի բաներ անելու համար, ինչպիսիք են՝ մեկի դեմքը ուրիշի մարմնի վրա դնելը, ֆոնային պայմանները փոխելը, շրթունքների կեղծ համաժամացումը և այլն: Դրանք տատանվում են անվնաս պարոդիաներից մինչև հայտնիներին կամ հասարակական գործիչներին ստիպելը ասել կամ անել մի բան, որը նրանք չեն արել:

Փորձագետներն ասում են, որ տեխնոլոգիան արագորեն զարգանում է, և որ խորը կեղծիքները միայն ավելի համոզիչ կդառնան (և ավելի հեշտ է ստեղծել), քանի որ տեխնոլոգիան դառնում է ավելի լայնորեն հասանելի և ավելի նորարար:

Image
Image

Facebook-ը վերջերս ավելի շատ պատկերացում տվեց իր խորը կեղծիքների հայտնաբերման տեխնոլոգիայի մասին՝ Միչիգանի պետական համալսարանի հետ համագործակցությամբ: Սոցիալական ցանցն ասում է, որ այն հիմնված է հակադարձ ինժեների վրա՝ արհեստական ինտելեկտի միջոցով ստեղծված մեկ պատկերից մինչև այն արտադրելու համար օգտագործվող գեներատիվ մոդելը:

Հետազոտող գիտնականները, ովքեր աշխատել են Facebook-ի հետ, ասում են, որ մեթոդը հիմնված է AI մոդելի եզակի օրինաչափությունների բացահայտման վրա, որն օգտագործվում է խորը կեղծիք ստեղծելու համար:

«Ընդհանրացնելով պատկերի վերագրումը բաց հավաքածուի ճանաչմանը, մենք կարող ենք ավելի շատ տեղեկություններ ստանալ գեներատիվ մոդելի մասին, որն օգտագործվում է խորը կեղծիք ստեղծելու համար, որը գերազանցում է այն գիտակցումը, որ այն նախկինում չի տեսել: «Դիփֆեյք» հավաքածուի օրինաչափությունների միջև նմանություններ գտնելով՝ մենք կարող ենք նաև պարզել, թե արդյոք պատկերների շարքը ծագել է մեկ աղբյուրից», - գրել են հետազոտող գիտնականներ Սի Ին և Թան Հասները Facebook-ի բլոգի գրառման մեջ դրա խորը կեղծ հայտնաբերման մեթոդի մասին:

Image
Image

Wolfram-ն ասում է, որ իմաստալից է, որ դուք կօգտագործեիք մեքենայական ուսուցումը զարգացած AI մոդելը (խորը կեղծիք) հայտնաբերելու համար: Այնուամենայնիվ, տեխնոլոգիան խաբելու տեղ միշտ կա:

«Ես ամենևին զարմացած չեմ, որ կա [deepfakes-ը հայտնաբերելու] մեքենայական ուսուցման պատշաճ եղանակ», - ասաց Վոլֆրամը: «Միակ հարցն այն է, որ եթե բավական ջանք գործադրես, կարո՞ղ ես խաբել դրան: Համոզված եմ, որ դու կարող ես»:

Deepfakes-ի դեմ պայքարն այլ կերպ

Փոխարենը, Վոլֆրամն ասաց, որ կարծում է, որ բլոկչեյնի օգտագործումը լավագույն տարբերակը կլինի որոշակի տեսակի խորը կեղծիքները ճշգրիտ հայտնաբերելու համար: Մեքենայական ուսուցման նկատմամբ բլոկչեյն օգտագործելու նրա կարծիքը վերադառնում է 2019 թվականին, և նա ասաց, որ, ի վերջո, բլոկչեյն մոտեցումը կարող է ավելի ճշգրիտ լուծում տալ մեր խորը կեղծ խնդրին։

«Ես ակնկալում եմ, որ պատկերների և տեսանյութերի դիտողները կարող են կանոնավոր կերպով ստուգել բլոկչեյնները (և «տվյալների եռանկյունացման հաշվարկները») մի փոքր այնպես, ինչպես վեբ բրաուզերներն այժմ ստուգում են անվտանգության վկայագրերը», - գրել է Վոլֆրամը Scientific American-ում հրապարակված հոդվածում:

Քանի որ բլոկչեյնները տվյալները պահում են բլոկներում, որոնք այնուհետև շղթայված են միմյանց ժամանակագրական կարգով, և քանի որ ապակենտրոնացված բլոկչեյններն անփոփոխ են, մուտքագրված տվյալներն անշրջելի են:

Միակ հարցն այն է, որ եթե բավական ջանք գործադրես, կարո՞ղ ես խաբել դրան: Համոզված եմ, որ կարող ես։

Վոլֆրամը բացատրեց, որ տեսանյութը բլոկչեյնում տեղադրելով, դուք կկարողանաք տեսնել դրա նկարահանման ժամանակը, գտնվելու վայրը և այլ համատեքստային տեղեկություններ, որոնք թույլ կտան ձեզ իմանալ, թե արդյոք այն որևէ կերպ փոփոխված է:

«Ընդհանուր առմամբ, ունենալով ավելի շատ մետատվյալներ, որոնք համատեքստում են նկարը կամ տեսանյութը, այնքան ավելի հավանական է, որ դուք կարողանաք պատմել», - ասաց նա: «Դուք չեք կարող ժամանակ կեղծել բլոկչեյնի վրա»:

Սակայն, Վոլֆրամն ասաց, որ օգտագործվող մեթոդը, լինի դա մեքենայական ուսուցում, թե բլոկչեյնի օգտագործումը, կախված է խորը կեղծիքի տեսակից, որից դուք փորձում եք պաշտպանվել (այսինքն՝ Քիմ Քարդաշյանի՝ ինչ-որ հիմար բան ասելու տեսանյութը կամ տեսանյութը. քաղաքական գործիչը հայտարարություն կամ առաջարկություն է անում):

«Բլոկչեյն մոտեցումը պաշտպանում է որոշակի տեսակի խորը կեղծիքներից, ճիշտ այնպես, ինչպես մեքենայական ուսուցման պատկերների մշակումը պաշտպանում է որոշակի տեսակի խորը կեղծիքներից», - ասաց նա:

Եզրակացությունը, կարծես, բոլորիս համար զգոնությունն է, երբ խոսքը վերաբերում է առաջիկա խորը կեղծ ջրհեղեղի դեմ պայքարին:

Խորհուրդ ենք տալիս: