Մի վստահեք այն ամենին, ինչ տեսնում եք համացանցում, ասում են փորձագետները

Բովանդակություն:

Մի վստահեք այն ամենին, ինչ տեսնում եք համացանցում, ասում են փորձագետները
Մի վստահեք այն ամենին, ինչ տեսնում եք համացանցում, ասում են փորձագետները
Anonim

Հիմնական տանողներ

  • Նոր հետազոտությունը ցույց է տալիս, որ մարդիկ չեն կարող առանձնացնել արհեստական ինտելեկտի միջոցով ստեղծված պատկերները իրականից։
  • Մասնակիցները AI-ի կողմից ստեղծված պատկերները գնահատեցին որպես ավելի վստահելի:
  • Փորձագետները կարծում են, որ մարդիկ պետք է դադարեն վստահել այն ամենին, ինչ տեսնում են ինտերնետում:
Image
Image

«Տեսնելը հավատալն է» ասացվածքն այլևս տեղին չէ, երբ խոսքը վերաբերում է ինտերնետին, և փորձագետներն ասում են, որ այն շուտով չի լավանա:

Վերջերս կատարած ուսումնասիրությունը ցույց է տվել, որ արհեստական ինտելեկտի (AI) կողմից ստեղծված դեմքերի պատկերները ոչ միայն շատ ֆոտոիրատեսական են, այլև ավելի առաքինի են թվում, քան իրական դեմքերը:

«AI-ով սինթեզված դեմքերի ֆոտոռեալիզմի մեր գնահատումը ցույց է տալիս, որ սինթեզի շարժիչներն անցել են անսովոր հովտով և կարող են ստեղծել այնպիսի դեմքեր, որոնք չեն տարբերվում և ավելի վստահելի, քան իրական դեմքերը», - նկատել են հետազոտողները:

Այդ անձը գոյություն չունի

Հետազոտողները՝ դոկտոր Սոֆի Նայթինգեյլը Լանկաստերի համալսարանից և պրոֆեսոր Հանի Ֆարիդը Կալիֆորնիայի համալսարանից, Բերկլի, փորձարկումներ են անցկացրել այն բանից հետո, երբ ընդունել են խորը կեղծիքների հանրահայտ սպառնալիքները՝ սկսած բոլոր տեսակի առցանց խարդախություններից մինչև աշխուժացնող: ապատեղեկատվական արշավներ։

«Հավանաբար ամենավտանգավորն այն հետևանքն է, որ թվային աշխարհում, որտեղ ցանկացած պատկեր կամ տեսանյութ կարող է կեղծվել, ցանկացած անհարմար կամ անցանկալի ձայնագրության իսկությունը կարող է կասկածի տակ դրվել», - պնդում են հետազոտողները::

Նրանք պնդում էին, որ թեև առաջընթաց է արձանագրվել խորը կեղծ բովանդակություն հայտնաբերելու ավտոմատ տեխնիկայի մշակման գործում, ներկայիս տեխնիկան բավականաչափ արդյունավետ և ճշգրիտ չէ՝ առցանց վերբեռնվող նոր բովանդակության մշտական հոսքին հետևելու համար:Սա նշանակում է, որ առցանց բովանդակության սպառողները պետք է տարբերակեն իրականը կեղծից, առաջարկում է դուետը:

Jelle Wieringa, KnowBe4-ի անվտանգության իրազեկման ջատագովը, համաձայնեց: Նա Lifewire-ին էլփոստի միջոցով ասաց, որ իրական խորը կեղծիքների դեմ պայքարը չափազանց դժվար է անել առանց մասնագիտացված տեխնոլոգիայի: «[Մեղմեցնող տեխնոլոգիաները] կարող են թանկ լինել և դժվար կիրառել իրական ժամանակի գործընթացներում, հաճախ հայտնաբերվում է խորը կեղծիք միայն փաստից հետո»:

Այս ենթադրությամբ՝ հետազոտողները մի շարք փորձեր են կատարել՝ պարզելու, թե արդյոք մարդկային մասնակիցները կարող են տարբերել ժամանակակից սինթեզված դեմքերը իրական դեմքերից: Իրենց թեստերում նրանք պարզել են, որ չնայած կեղծիքների ճանաչմանն օգնելու համար մարզվելուն, ճշգրտության մակարդակը միայն բարելավվել է մինչև 59%՝ առանց մարզումների 48%-ի փոխարեն:

Սա ստիպեց հետազոտողներին ստուգել, թե արդյոք վստահելիության ընկալումները կարող են օգնել մարդկանց բացահայտել արհեստական պատկերները: Երրորդ հետազոտության ժամանակ նրանք խնդրեցին մասնակիցներին գնահատել դեմքերի վստահելիությունը, միայն թե պարզեն, որ սինթետիկ դեմքերի միջին գնահատականը 7 է:7%-ով ավելի վստահելի, քան իրական դեմքերի միջին վարկանիշը: Թիվը կարող է շատ չթվալ, սակայն հետազոտողները պնդում են, որ դա վիճակագրորեն նշանակալի է։

Խորը կեղծիք

Խորը կեղծիքներն արդեն իսկ մեծ մտահոգություն էին, և այժմ ջրերը ավելի են պղտորվել այս ուսումնասիրության պատճառով, ինչը ենթադրում է, որ նման բարձրորակ կեղծ պատկերները կարող են միանգամայն նոր հարթություն հաղորդել առցանց խարդախություններին, օրինակ՝ օգնելով ստեղծել ավելին: համոզիչ առցանց կեղծ պրոֆիլներ։

«Կիբերանվտանգությունը խթանող միակ բանը մարդկանց վստահությունն է տեխնոլոգիաների, գործընթացների և այն մարդկանց նկատմամբ, ովքեր փորձում են դրանք անվտանգ պահել», - կիսվել է Վիերինգան: «Խորը կեղծիքները, հատկապես, երբ դրանք դառնում են ֆոտոռեալիստական, խաթարում են այս վստահությունը և, հետևաբար, կիբերանվտանգության ընդունումն ու ընդունումը: Դա կարող է հանգեցնել նրան, որ մարդիկ անվստահություն ունենան այն ամենի նկատմամբ, ինչ իրենք ընկալում են»:

Image
Image

Քրիս Հաուկը՝ Pixel Privacy-ի սպառողների գաղտնիության պաշտպանը, համաձայնել է: Էլփոստի կարճ փոխանակման ժամանակ նա Lifewire-ին ասաց, որ ֆոտոռեալիստական խորը կեղծիքները կարող են «ավերածություններ» առաջացնել առցանց, հատկապես այս օրերին, երբ բոլոր տեսակի հաշիվներին կարելի է մուտք գործել՝ օգտագործելով լուսանկարչական ID տեխնոլոգիան:

Ուղղիչ գործողություն

Բարեբախտաբար, Գրեգ Կունը, IoT, Prosegur Security-ի տնօրենը, ասում է, որ կան գործընթացներ, որոնք կարող են խուսափել նման խարդախ նույնականացումից: Նա Lifewire-ին էլ․

«Այս տեսակի համակարգերը կարող են պահանջել և ուղղորդել օգտատիրոջը կատարել որոշակի առաջադրանքներ, օրինակ՝ ժպտալ կամ գլուխը թեքել դեպի ձախ, ապա աջ: Սրանք այն բաներն են, որոնք ստատիկ ձևավորված դեմքերը չեն կարող կատարել», - կիսվել է Կունը:

Հետազոտողները առաջարկել են ուղեցույցներ՝ կարգավորելու դրանց ստեղծումն ու տարածումը, որպեսզի պաշտպանեն հանրությանը սինթետիկ պատկերներից: Սկզբի համար նրանք առաջարկում են խորապես արմատավորված ջրանիշեր ներառել պատկերների և վիդեո սինթեզի ցանցերում՝ ապահովելու համար, որ բոլոր սինթետիկ միջոցները կարող են հուսալիորեն նույնականացվել:

Մինչ այդ, Փոլ Բիշոֆը, գաղտնիության պաշտպան և Comparitech-ի infosec հետազոտության խմբագիրն ասում է, որ մարդիկ ինքնուրույն են:«Մարդիկ պետք է սովորեն չվստահել դեմքերին առցանց, ճիշտ այնպես, ինչպես մենք բոլորս (հուսով ենք) սովորել ենք չվստահել ցուցադրվող անուններին մեր նամակներում», - ասել է Բիշոֆը Lifewire-ին էլփոստի միջոցով::

Խորհուրդ ենք տալիս: