Տեսանյութեր կեղծելը հեշտ է, խորը կարոտի ցույց է տալիս

Բովանդակություն:

Տեսանյութեր կեղծելը հեշտ է, խորը կարոտի ցույց է տալիս
Տեսանյութեր կեղծելը հեշտ է, խորը կարոտի ցույց է տալիս
Anonim

Հիմնական տանողներ

  • Deep Nostalgia-ն նոր ծրագիր է, որը թույլ է տալիս անիմացիոն դարձնել հին լուսանկարները:
  • Տեխնոլոգիան ցույց է տալիս, թե որքան հեշտ է ստեղծել տեսանյութեր, որտեղ մարդիկ անում են այն, ինչ իրականում չեն արել իրական կյանքում:
  • Խորը կեղծ տեխնոլոգիան արդեն այնքան բարդ է, որ դժվար է որոշել՝ տեսանյութն իրական է, թե համակարգչային ստեղծած, ասում է փորձագետներից մեկը:
Image
Image

Զգույշ եղեք նոր ծրագրերից, որոնք կարող են ստեղծել այսպես կոչված «խորը կեղծիքներ», որոնցում իրական մարդկանց տեսանյութերը կարող են մոդելավորվել, զգուշացնում են փորձագետները:

MyHeritage ընկերության կողմից թողարկված Deep Nostalgia-ն թրենդային է սոցիալական ցանցերում, որտեղ օգտատերերը վերակենդանացնում են բոլորին՝ հայտնի կոմպոզիտորներից մինչև մահացած հարազատներ: Ծրագրային ապահովումը հակասական արձագանքներ է առաջացնում, որոնցից ոմանք հիացած են ստեղծագործություններից, իսկ ոմանց համար դրանք սահմռկեցուցիչ են: Տեխնոլոգիան ցույց է տալիս, թե որքան հեշտ է ստեղծել տեսանյութեր, որտեղ մարդիկ անում են այն, ինչ իրականում չեն արել իրական կյանքում:

«Deepfake տեխնոլոգիան դառնում է ավելի բարդ և ավելի վտանգավոր», - էլեկտրոնային փոստով տված հարցազրույցում ասել է SRI International-ի Խոսքի տեխնոլոգիաների և հետազոտությունների լաբորատորիայի (STAR) տնօրենի օգնական Ահարոն Լոուսոնը: «Դա մասամբ պայմանավորված է արհեստական ինտելեկտի բնույթով: Այնտեղ, որտեղ «ավանդական» տեխնոլոգիան բարելավման համար պահանջում է մարդկային ժամանակ և էներգիա, AI-ն կարող է սովորել ինքն իրենից:

«Բայց AI-ի՝ ինքն իրեն զարգացնելու կարողությունը երկսայրի սուր է», - շարունակեց Լոուսոնը: «Եթե արհեստական ինտելեկտը ստեղծվել է ինչ-որ բարեգործական, հիանալի բան անելու համար: Բայց երբ արհեստական ինտելեկտը նախատեսված է ինչ-որ վնասակար բանի համար, ինչպիսին է խորը կեղծիքները, վտանգը աննախադեպ է»:

Ծրագրաշարը կյանքի է կոչում լուսանկարներ

Genealogy կայքը MyHeritage-ը ներկայացրել է անիմացիոն շարժիչը անցյալ ամիս: Տեխնոլոգիան, որը հայտնի է որպես Deep Nostalgia, թույլ է տալիս օգտատերերին նկարներ անիմացնել MyHeritage կայքի միջոցով: D-ID անունով ընկերությունը մշակել է ալգորիթմներ MyHeritage-ի համար, որոնք թվային կերպով վերստեղծում են մարդկային դեմքերի շարժումները: Համաձայն MyHeritage կայքի՝ ծրագրաշարը կիրառում է շարժումները լուսանկարների վրա և փոփոխում է դեմքի արտահայտությունները, որպեսզի շարժվի այնպես, ինչպես սովորաբար անում են մարդկանց դեմքերը:

Խորը Նոստալգիան ցույց է տալիս, որ խորը կեղծ տեխնոլոգիան դառնում է ավելի հասանելի, ասել է Կանզաս նահանգի համալսարանի համակարգչային գիտության պրոֆեսոր Լիոր Շամիրը էլեկտրոնային հարցազրույցում: Այն արագորեն զարգանում է և վերացնում է նույնիսկ կեղծ և իրական վիդեո և աուդիոյի նուրբ տարբերությունները:

«Նաև զգալի առաջընթաց է գրանցվել իրական ժամանակի խորը կեղծիքի ուղղությամբ, ինչը նշանակում է, որ համոզիչ խորը կեղծ տեսանյութերը ստեղծվում են տեսահաղորդակցության ժամանակ», - ասաց Շամիրը:«Օրինակ, կարելի է Zoom-ի հանդիպում ունենալ որոշակի անձի հետ՝ միաժամանակ տեսնելով և լսելով բոլորովին այլ մարդու ձայնը»:

Կան նաև աճող թվով լեզվի վրա հիմնված խորը կեղծիքներ, ասել է Սթիվենսի տեխնոլոգիական ինստիտուտի Սթիվենսի արհեստական ինտելեկտի ինստիտուտի տնօրեն Ջեյսոն Կորսոն էլփոստի հարցազրույցում: «Խորը կեղծ տեքստի ամբողջական պարբերություններ ստեղծելը կոնկրետ օրակարգի համար բավականին դժվար է, սակայն խորը բնական լեզվի մշակման ժամանակակից առաջընթացը դա հնարավոր է դարձնում», - ավելացրեց նա::

Ինչպես բացահայտել խորը կեղծիք

Չնայած կեղծիքի հայտնաբերման տեխնոլոգիան դեռ նոր փուլում է, կան մի քանի եղանակներ, որոնցով կարող եք նկատել մեկը, ասում է Կորսոն՝ սկսած բերանից:

«Բերանի ներքին տեսքի փոփոխականությունը, երբ ինչ-որ մեկը խոսում է, շատ մեծ է, ինչը դժվարացնում է համոզիչ կենդանացումը», - բացատրեց Կորսոն: «Դա կարելի է անել, բայց ավելի դժվար է, քան գլխի մնացած մասը։Ուշադրություն դարձրեք, թե ինչպես Deep Nostalgia-ի տեսահոլովակները խորը կեղծ ստեղծագործության ընթացքում չեն ցուցադրում լուսանկարի «Ես սիրում եմ քեզ» կամ որևէ այլ արտահայտություն ասելու ունակություն: Դա անելու համար կպահանջվի բերանի բացում և փակում, ինչը շատ դժվար է խորը կեղծ սերնդի համար»:

Ghosting-ը ևս մեկ նվեր է, ավելացրեց Կորսոն: Եթե գլխի եզրերի շուրջը մշուշոտություն եք տեսնում, դա «արագ շարժման կամ սկզբնական պատկերում առկա սահմանափակ պիքսելների արդյունք է: Ականջը կարող է մասամբ անհետանալ մի պահ, կամ մազերը կարող են պղտորվել այնտեղ, որտեղ դուք չէիք ակնկալում», - նա: ասաց.

Դուք նաև կարող եք ուշադրություն դարձնել գունային տատանումների վրա, երբ փորձում եք նկատել խորը կեղծ տեսանյութ, օրինակ՝ դեմքի վրայի սուր գիծ, մի կողմում ավելի մուգ գույներով, մյուս կողմից՝ ավելի բաց գույներով:

«Համակարգչային ալգորիթմները հաճախ կարող են հայտնաբերել աղավաղման այս օրինաչափությունները», - ասաց Շամիրը: «Սակայն խորը կեղծ ալգորիթմներն արագորեն զարգանում են: Անխուսափելի է, որ խիստ օրենքներ կպահանջվեն՝ պաշտպանելու խորը կեղծիքից և այն վնասից, որը նրանք կարող են հեշտությամբ պատճառել»:

Խորհուրդ ենք տալիս: