Հիմնական տանողներ
- Amazon-ի Alexa ձայնային օգնականը կարող է ձայնը պատճենել ընդամենը մեկ րոպե ձայնով:
- Դուք կարող եք խնդրել Alexa-ին կարդալ պատմություն մահացած ծնողի ձայնով:
- Դա նույն գաղափարն է, ինչ խորը կեղծիքները, որոնք օգտագործվում են միայն բարի ուժի համար:
Amazon Alexa-ի վերջին հնարքն է՝ սովորել ընդօրինակել մահացած սիրելիի ձայնը, որպեսզի նրանք կարողանան ձեզ հետ խոսել գերեզմանից այն կողմ:
Ալեքսային անհրաժեշտ է ընդամենը մեկ րոպե խոսակցական ձայն՝ ձայնը համոզիչ կերպով նմանակելու համար:Amazon-ն այն համարում է որպես մխիթարող հատկություն, որը կարող է ձեզ կապ հաստատել սիրելիների հետ, բայց դա կարող է նաև լինել բավականին սարսափելի փորձ: Եվ դա ցույց է տալիս, թե որքան հեշտ է ստեղծել խորը կեղծ աուդիո, որը բավական լավ է մեզ հիմարացնելու համար, նույնիսկ երբ ձայնն այնպիսին է, որը մենք շատ լավ գիտենք:
«Ամազոնը, անկասկած, մտել է բավականին եզակի և տարօրինակ տարածք՝ իր հայտարարությամբ, որ Alexa-ն շուտով կկարողանա սովորել և այնուհետև օգտագործել մահացած հարազատների ձայնը», - ասաց «Վերականգնել գաղտնիության» գաղտնիության փորձագետ Բիլ Մանը: Lifewire էլփոստի միջոցով: «Որոշ մարդկանց համար դա ամենևին էլ սարսափելի չէ: Իրականում այն կարող է բավականին հուզիչ լինել»:
Ուրվականը մեքենայի մեջ
Իր ամենամյա re:MARS կոնֆերանսի շրջանակներում Amazon-ը ցուցադրում է հնարավորությունը կարճ տեսանյութով: Դրանում մի երեխա հարցնում է Ալեքսային, թե արդյոք տատիկը կարող է շարունակել կարդալ «Օզի կախարդը»՝ յուրաքանչյուր երեխայի սիրելի հանրային տիրույթի հիմնական ստեղծագործությունը: Եվ դա բավականին հուզիչ պահ է: Դժվար է չզգալ մարդկային զգացմունքները, երբ տատիկը սկսում է կարդալ:
«Մարդիկ պայքարում են մահացության դեմ, հատկապես արևմտյան մշակույթում: Դարեր շարունակ մենք փորձել ենք ուղիներ գտնել մահացածների հիշատակը հավերժացնելու համար՝ սկսած մահվան դիմակներից, մինչև մազերի կողպեքներ, մինչև հին լուսանկարներ, մինչև հին ֆիլմեր դիտելը», - Էնդրյու Սելեպակ,-ը Ֆլորիդայի համալսարանի սոցիալական մեդիայի պրոֆեսորն ասել է Lifewire-ին էլեկտրոնային փոստով: «Deepfakes-ն օգտագործում է նորագույն տեխնոլոգիա՝ մահացած սիրելիի մահվան նոր դիմակ ստեղծելու համար: Բայց, կախված մարդու տեսակետից, դա սահմռկեցուցիչ է, թե՞ հիշելու և նրան պահելու միջոց, ում սիրում ես նրա մահից հետո»:
Բայց memento mori-ը կարող է և՛ մխիթարիչ, և՛ սողացող լինել: Ընտանիքի անդամի ընկերը մահացել է, բայց դուք դեռ կարող եք լսել նրանց խոսակցությունը: Չի օգնում, որ Alexa-ն տարօրինակ և երբեմն սարսափելի վարքագծի պատմություն ունի: 2018 թվականին, երբ NYT-ի սյունակագիր Ֆարհադ Մանջուն պառկել էր անկողնում, նրա Amazon Echo-ն «սկսեց լաց լինել, ինչպես երեխային գոռում է սարսափ ֆիլմի երազում»:
Շուտով Amazon-ը խոստովանեց, որ Alexa-ն երբեմն բարձրաձայն ծիծաղում է, ինչը դեռահասների և նկուղների հետ միասին սարսափ ֆիլմ է 101:
Կարելի է միայն զարմանալ, թե ինչպես կզգաք, եթե Alexa-ն նույն հնարքները կատարեր տատիկի ձայնով:
Խորը կեղծ
Ալեքսան սովորում է ձայնը նմանակել ակնհայտ հեշտությամբ, մեզ տանում է դեպի ձայնի կլոնավորման ավելի չար կիրառումներ՝ խորը կեղծիքներ:
«Խորը կեղծ ձայնը նորություն չէ, նույնիսկ եթե այն քիչ հասկացված է և քիչ հայտնի: Տեխնոլոգիան հասանելի է տարիներ շարունակ՝ արհեստական ինտելեկտի և խորը ուսուցման միջոցով անհատի ձայնը վերստեղծելու համար՝ օգտագործելով տվյալ անձի համեմատաբար քիչ իրական ձայնը»: ասում է Սելեպակը։ «Նման տեխնոլոգիան կարող է նաև վտանգավոր և կործանարար լինել: Անհանգստացած անհատը կարող է վերստեղծել մահացած նախկին ընկերոջ կամ ընկերուհու ձայնը և օգտագործել նոր աուդիո՝ ատելություն պատճառող և վիրավորական բաներ ասելու համար»:
Դա պարզապես Alexa-ի համատեքստում է: Խորը կեղծ ձայնը կարող է շատ ավելին լինել, համոզելով մարդկանց, որ հայտնի քաղաքական գործիչները հավատում են այնպիսի բաների, որոնք, օրինակ, չեն հավատում:Բայց մյուս կողմից, որքան մենք ընտելանանք այս խորը կեղծիքներին, միգուցե այս Alexa ձայների տեսքով, այնքան ավելի թերահավատ կլինենք ավելի ստոր կեղծիքների նկատմամբ: Հետո նորից, հաշվի առնելով, թե որքան հեշտ է սուտ տարածելը Facebook-ում, գուցե ոչ:
Amazon-ը չի ասել, թե արդյոք այս գործառույթը գալիս է Alexa-ին, թե դա պարզապես տեխնոլոգիական ցուցադրություն է: Ես մի տեսակ հույս ունեմ, որ դա տեղի կունենա: Տեխնոլոգիան լավագույնն է, երբ այն օգտագործվում է հումանիստական նման ձևով, և թեև հեշտ արձագանքը դա սարսափելի անվանելն է, ինչպես ասում է Սելեպակը, այն իրականում այնքան էլ չի տարբերվում հին տեսանյութեր դիտելուց կամ պահպանված ձայնային հաղորդագրություններ լսելուց: ինչպես ծույլ սցենարով հեռուստաշոուի կերպար։
Եվ եթե խորը կեղծիքների տեխնոլոգիան մատչելի է, ինչո՞ւ չօգտագործել այն մեզ մխիթարելու համար: