Մի վստահեք այն ամենին, ինչ տեսնում եք համացանցում, ասում են փորձագետները

Մի վստահեք այն ամենին, ինչ տեսնում եք համացանցում, ասում են փորձագետները
Մի վստահեք այն ամենին, ինչ տեսնում եք համացանցում, ասում են փորձագետները
Anonim

Հիմնական տանողներ

  • Նոր հետազոտությունը ցույց է տալիս, որ մարդիկ չեն կարող առանձնացնել արհեստական ինտելեկտի միջոցով ստեղծված պատկերները իրականից։
  • Մասնակիցները AI-ի կողմից ստեղծված պատկերները գնահատեցին որպես ավելի վստահելի:
  • Փորձագետները կարծում են, որ մարդիկ պետք է դադարեն վստահել այն ամենին, ինչ տեսնում են ինտերնետում:
Image
Image

«Տեսնելը հավատալն է» ասացվածքն այլևս տեղին չէ, երբ խոսքը վերաբերում է ինտերնետին, և փորձագետներն ասում են, որ այն շուտով չի լավանա:

Վերջերս կատարած ուսումնասիրությունը ցույց է տվել, որ արհեստական ինտելեկտի (AI) կողմից ստեղծված դեմքերի պատկերները ոչ միայն շատ ֆոտոիրատեսական են, այլև ավելի առաքինի են թվում, քան իրական դեմքերը:

«AI-ով սինթեզված դեմքերի ֆոտոռեալիզմի մեր գնահատումը ցույց է տալիս, որ սինթեզի շարժիչներն անցել են անսովոր հովտով և կարող են ստեղծել այնպիսի դեմքեր, որոնք չեն տարբերվում և ավելի վստահելի, քան իրական դեմքերը», - նկատել են հետազոտողները:

Այդ անձը գոյություն չունի

Հետազոտողները՝ դոկտոր Սոֆի Նայթինգեյլը Լանկաստերի համալսարանից և պրոֆեսոր Հանի Ֆարիդը Կալիֆորնիայի համալսարանից, Բերկլի, փորձարկումներ են անցկացրել այն բանից հետո, երբ ընդունել են խորը կեղծիքների հանրահայտ սպառնալիքները՝ սկսած բոլոր տեսակի առցանց խարդախություններից մինչև աշխուժացնող: ապատեղեկատվական արշավներ։

«Հավանաբար ամենավտանգավորն այն հետևանքն է, որ թվային աշխարհում, որտեղ ցանկացած պատկեր կամ տեսանյութ կարող է կեղծվել, ցանկացած անհարմար կամ անցանկալի ձայնագրության իսկությունը կարող է կասկածի տակ դրվել», - պնդում են հետազոտողները::

Նրանք պնդում էին, որ թեև առաջընթաց է արձանագրվել խորը կեղծ բովանդակություն հայտնաբերելու ավտոմատ տեխնիկայի մշակման գործում, ներկայիս տեխնիկան բավականաչափ արդյունավետ և ճշգրիտ չէ՝ առցանց վերբեռնվող նոր բովանդակության մշտական հոսքին հետևելու համար:Սա նշանակում է, որ առցանց բովանդակության սպառողները պետք է տարբերակեն իրականը կեղծից, առաջարկում է դուետը:

Jelle Wieringa, KnowBe4-ի անվտանգության իրազեկման ջատագովը, համաձայնեց: Նա Lifewire-ին էլփոստի միջոցով ասաց, որ իրական խորը կեղծիքների դեմ պայքարը չափազանց դժվար է անել առանց մասնագիտացված տեխնոլոգիայի: «[Մեղմեցնող տեխնոլոգիաները] կարող են թանկ լինել և դժվար կիրառել իրական ժամանակի գործընթացներում, հաճախ հայտնաբերվում է խորը կեղծիք միայն փաստից հետո»:

Այս ենթադրությամբ՝ հետազոտողները մի շարք փորձեր են կատարել՝ պարզելու, թե արդյոք մարդկային մասնակիցները կարող են տարբերել ժամանակակից սինթեզված դեմքերը իրական դեմքերից: Իրենց թեստերում նրանք պարզել են, որ չնայած կեղծիքների ճանաչմանն օգնելու համար մարզվելուն, ճշգրտության մակարդակը միայն բարելավվել է մինչև 59%՝ առանց մարզումների 48%-ի փոխարեն:

Սա ստիպեց հետազոտողներին ստուգել, թե արդյոք վստահելիության ընկալումները կարող են օգնել մարդկանց բացահայտել արհեստական պատկերները: Երրորդ հետազոտության ժամանակ նրանք խնդրեցին մասնակիցներին գնահատել դեմքերի վստահելիությունը, միայն թե պարզեն, որ սինթետիկ դեմքերի միջին գնահատականը 7 է:7%-ով ավելի վստահելի, քան իրական դեմքերի միջին վարկանիշը: Թիվը կարող է շատ չթվալ, սակայն հետազոտողները պնդում են, որ դա վիճակագրորեն նշանակալի է։

Խորը կեղծիք

Խորը կեղծիքներն արդեն իսկ մեծ մտահոգություն էին, և այժմ ջրերը ավելի են պղտորվել այս ուսումնասիրության պատճառով, ինչը ենթադրում է, որ նման բարձրորակ կեղծ պատկերները կարող են միանգամայն նոր հարթություն հաղորդել առցանց խարդախություններին, օրինակ՝ օգնելով ստեղծել ավելին: համոզիչ առցանց կեղծ պրոֆիլներ։

«Կիբերանվտանգությունը խթանող միակ բանը մարդկանց վստահությունն է տեխնոլոգիաների, գործընթացների և այն մարդկանց նկատմամբ, ովքեր փորձում են դրանք անվտանգ պահել», - կիսվել է Վիերինգան: «Խորը կեղծիքները, հատկապես, երբ դրանք դառնում են ֆոտոռեալիստական, խաթարում են այս վստահությունը և, հետևաբար, կիբերանվտանգության ընդունումն ու ընդունումը: Դա կարող է հանգեցնել նրան, որ մարդիկ անվստահություն ունենան այն ամենի նկատմամբ, ինչ իրենք ընկալում են»:

Image
Image

Քրիս Հաուկը՝ Pixel Privacy-ի սպառողների գաղտնիության պաշտպանը, համաձայնել է: Էլփոստի կարճ փոխանակման ժամանակ նա Lifewire-ին ասաց, որ ֆոտոռեալիստական խորը կեղծիքները կարող են «ավերածություններ» առաջացնել առցանց, հատկապես այս օրերին, երբ բոլոր տեսակի հաշիվներին կարելի է մուտք գործել՝ օգտագործելով լուսանկարչական ID տեխնոլոգիան:

Ուղղիչ գործողություն

Բարեբախտաբար, Գրեգ Կունը, IoT, Prosegur Security-ի տնօրենը, ասում է, որ կան գործընթացներ, որոնք կարող են խուսափել նման խարդախ նույնականացումից: Նա Lifewire-ին էլ․

«Այս տեսակի համակարգերը կարող են պահանջել և ուղղորդել օգտատիրոջը կատարել որոշակի առաջադրանքներ, օրինակ՝ ժպտալ կամ գլուխը թեքել դեպի ձախ, ապա աջ: Սրանք այն բաներն են, որոնք ստատիկ ձևավորված դեմքերը չեն կարող կատարել», - կիսվել է Կունը:

Հետազոտողները առաջարկել են ուղեցույցներ՝ կարգավորելու դրանց ստեղծումն ու տարածումը, որպեսզի պաշտպանեն հանրությանը սինթետիկ պատկերներից: Սկզբի համար նրանք առաջարկում են խորապես արմատավորված ջրանիշեր ներառել պատկերների և վիդեո սինթեզի ցանցերում՝ ապահովելու համար, որ բոլոր սինթետիկ միջոցները կարող են հուսալիորեն նույնականացվել:

Մինչ այդ, Փոլ Բիշոֆը, գաղտնիության պաշտպան և Comparitech-ի infosec հետազոտության խմբագիրն ասում է, որ մարդիկ ինքնուրույն են:«Մարդիկ պետք է սովորեն չվստահել դեմքերին առցանց, ճիշտ այնպես, ինչպես մենք բոլորս (հուսով ենք) սովորել ենք չվստահել ցուցադրվող անուններին մեր նամակներում», - ասել է Բիշոֆը Lifewire-ին էլփոստի միջոցով::

Խորհուրդ ենք տալիս: