Հիմնական տանողներ
- Նոր հետազոտությունը ցույց է տալիս, որ մարդիկ չեն կարող առանձնացնել արհեստական ինտելեկտի միջոցով ստեղծված պատկերները իրականից։
- Մասնակիցները AI-ի կողմից ստեղծված պատկերները գնահատեցին որպես ավելի վստահելի:
- Փորձագետները կարծում են, որ մարդիկ պետք է դադարեն վստահել այն ամենին, ինչ տեսնում են ինտերնետում:
«Տեսնելը հավատալն է» ասացվածքն այլևս տեղին չէ, երբ խոսքը վերաբերում է ինտերնետին, և փորձագետներն ասում են, որ այն շուտով չի լավանա:
Վերջերս կատարած ուսումնասիրությունը ցույց է տվել, որ արհեստական ինտելեկտի (AI) կողմից ստեղծված դեմքերի պատկերները ոչ միայն շատ ֆոտոիրատեսական են, այլև ավելի առաքինի են թվում, քան իրական դեմքերը:
«AI-ով սինթեզված դեմքերի ֆոտոռեալիզմի մեր գնահատումը ցույց է տալիս, որ սինթեզի շարժիչներն անցել են անսովոր հովտով և կարող են ստեղծել այնպիսի դեմքեր, որոնք չեն տարբերվում և ավելի վստահելի, քան իրական դեմքերը», - նկատել են հետազոտողները:
Այդ անձը գոյություն չունի
Հետազոտողները՝ դոկտոր Սոֆի Նայթինգեյլը Լանկաստերի համալսարանից և պրոֆեսոր Հանի Ֆարիդը Կալիֆորնիայի համալսարանից, Բերկլի, փորձարկումներ են անցկացրել այն բանից հետո, երբ ընդունել են խորը կեղծիքների հանրահայտ սպառնալիքները՝ սկսած բոլոր տեսակի առցանց խարդախություններից մինչև աշխուժացնող: ապատեղեկատվական արշավներ։
«Հավանաբար ամենավտանգավորն այն հետևանքն է, որ թվային աշխարհում, որտեղ ցանկացած պատկեր կամ տեսանյութ կարող է կեղծվել, ցանկացած անհարմար կամ անցանկալի ձայնագրության իսկությունը կարող է կասկածի տակ դրվել», - պնդում են հետազոտողները::
Նրանք պնդում էին, որ թեև առաջընթաց է արձանագրվել խորը կեղծ բովանդակություն հայտնաբերելու ավտոմատ տեխնիկայի մշակման գործում, ներկայիս տեխնիկան բավականաչափ արդյունավետ և ճշգրիտ չէ՝ առցանց վերբեռնվող նոր բովանդակության մշտական հոսքին հետևելու համար:Սա նշանակում է, որ առցանց բովանդակության սպառողները պետք է տարբերակեն իրականը կեղծից, առաջարկում է դուետը:
Jelle Wieringa, KnowBe4-ի անվտանգության իրազեկման ջատագովը, համաձայնեց: Նա Lifewire-ին էլփոստի միջոցով ասաց, որ իրական խորը կեղծիքների դեմ պայքարը չափազանց դժվար է անել առանց մասնագիտացված տեխնոլոգիայի: «[Մեղմեցնող տեխնոլոգիաները] կարող են թանկ լինել և դժվար կիրառել իրական ժամանակի գործընթացներում, հաճախ հայտնաբերվում է խորը կեղծիք միայն փաստից հետո»:
Այս ենթադրությամբ՝ հետազոտողները մի շարք փորձեր են կատարել՝ պարզելու, թե արդյոք մարդկային մասնակիցները կարող են տարբերել ժամանակակից սինթեզված դեմքերը իրական դեմքերից: Իրենց թեստերում նրանք պարզել են, որ չնայած կեղծիքների ճանաչմանն օգնելու համար մարզվելուն, ճշգրտության մակարդակը միայն բարելավվել է մինչև 59%՝ առանց մարզումների 48%-ի փոխարեն:
Սա ստիպեց հետազոտողներին ստուգել, թե արդյոք վստահելիության ընկալումները կարող են օգնել մարդկանց բացահայտել արհեստական պատկերները: Երրորդ հետազոտության ժամանակ նրանք խնդրեցին մասնակիցներին գնահատել դեմքերի վստահելիությունը, միայն թե պարզեն, որ սինթետիկ դեմքերի միջին գնահատականը 7 է:7%-ով ավելի վստահելի, քան իրական դեմքերի միջին վարկանիշը: Թիվը կարող է շատ չթվալ, սակայն հետազոտողները պնդում են, որ դա վիճակագրորեն նշանակալի է։
Խորը կեղծիք
Խորը կեղծիքներն արդեն իսկ մեծ մտահոգություն էին, և այժմ ջրերը ավելի են պղտորվել այս ուսումնասիրության պատճառով, ինչը ենթադրում է, որ նման բարձրորակ կեղծ պատկերները կարող են միանգամայն նոր հարթություն հաղորդել առցանց խարդախություններին, օրինակ՝ օգնելով ստեղծել ավելին: համոզիչ առցանց կեղծ պրոֆիլներ։
«Կիբերանվտանգությունը խթանող միակ բանը մարդկանց վստահությունն է տեխնոլոգիաների, գործընթացների և այն մարդկանց նկատմամբ, ովքեր փորձում են դրանք անվտանգ պահել», - կիսվել է Վիերինգան: «Խորը կեղծիքները, հատկապես, երբ դրանք դառնում են ֆոտոռեալիստական, խաթարում են այս վստահությունը և, հետևաբար, կիբերանվտանգության ընդունումն ու ընդունումը: Դա կարող է հանգեցնել նրան, որ մարդիկ անվստահություն ունենան այն ամենի նկատմամբ, ինչ իրենք ընկալում են»:
Քրիս Հաուկը՝ Pixel Privacy-ի սպառողների գաղտնիության պաշտպանը, համաձայնել է: Էլփոստի կարճ փոխանակման ժամանակ նա Lifewire-ին ասաց, որ ֆոտոռեալիստական խորը կեղծիքները կարող են «ավերածություններ» առաջացնել առցանց, հատկապես այս օրերին, երբ բոլոր տեսակի հաշիվներին կարելի է մուտք գործել՝ օգտագործելով լուսանկարչական ID տեխնոլոգիան:
Ուղղիչ գործողություն
Բարեբախտաբար, Գրեգ Կունը, IoT, Prosegur Security-ի տնօրենը, ասում է, որ կան գործընթացներ, որոնք կարող են խուսափել նման խարդախ նույնականացումից: Նա Lifewire-ին էլ․
«Այս տեսակի համակարգերը կարող են պահանջել և ուղղորդել օգտատիրոջը կատարել որոշակի առաջադրանքներ, օրինակ՝ ժպտալ կամ գլուխը թեքել դեպի ձախ, ապա աջ: Սրանք այն բաներն են, որոնք ստատիկ ձևավորված դեմքերը չեն կարող կատարել», - կիսվել է Կունը:
Հետազոտողները առաջարկել են ուղեցույցներ՝ կարգավորելու դրանց ստեղծումն ու տարածումը, որպեսզի պաշտպանեն հանրությանը սինթետիկ պատկերներից: Սկզբի համար նրանք առաջարկում են խորապես արմատավորված ջրանիշեր ներառել պատկերների և վիդեո սինթեզի ցանցերում՝ ապահովելու համար, որ բոլոր սինթետիկ միջոցները կարող են հուսալիորեն նույնականացվել:
Մինչ այդ, Փոլ Բիշոֆը, գաղտնիության պաշտպան և Comparitech-ի infosec հետազոտության խմբագիրն ասում է, որ մարդիկ ինքնուրույն են:«Մարդիկ պետք է սովորեն չվստահել դեմքերին առցանց, ճիշտ այնպես, ինչպես մենք բոլորս (հուսով ենք) սովորել ենք չվստահել ցուցադրվող անուններին մեր նամակներում», - ասել է Բիշոֆը Lifewire-ին էլփոստի միջոցով::