Ալեքսայի՝ մահացած հարազատներին ընդօրինակելու ունակությունը կարող է լինել երբևէ եղած ամենասարսափելին

Բովանդակություն:

Ալեքսայի՝ մահացած հարազատներին ընդօրինակելու ունակությունը կարող է լինել երբևէ եղած ամենասարսափելին
Ալեքսայի՝ մահացած հարազատներին ընդօրինակելու ունակությունը կարող է լինել երբևէ եղած ամենասարսափելին
Anonim

Հիմնական տանողներ

  • Amazon-ի Alexa ձայնային օգնականը կարող է ձայնը պատճենել ընդամենը մեկ րոպե ձայնով:
  • Դուք կարող եք խնդրել Alexa-ին կարդալ պատմություն մահացած ծնողի ձայնով:
  • Դա նույն գաղափարն է, ինչ խորը կեղծիքները, որոնք օգտագործվում են միայն բարի ուժի համար:
Image
Image

Amazon Alexa-ի վերջին հնարքն է՝ սովորել ընդօրինակել մահացած սիրելիի ձայնը, որպեսզի նրանք կարողանան ձեզ հետ խոսել գերեզմանից այն կողմ:

Ալեքսային անհրաժեշտ է ընդամենը մեկ րոպե խոսակցական ձայն՝ ձայնը համոզիչ կերպով նմանակելու համար:Amazon-ն այն համարում է որպես մխիթարող հատկություն, որը կարող է ձեզ կապ հաստատել սիրելիների հետ, բայց դա կարող է նաև լինել բավականին սարսափելի փորձ: Եվ դա ցույց է տալիս, թե որքան հեշտ է ստեղծել խորը կեղծ աուդիո, որը բավական լավ է մեզ հիմարացնելու համար, նույնիսկ երբ ձայնն այնպիսին է, որը մենք շատ լավ գիտենք:

«Ամազոնը, անկասկած, մտել է բավականին եզակի և տարօրինակ տարածք՝ իր հայտարարությամբ, որ Alexa-ն շուտով կկարողանա սովորել և այնուհետև օգտագործել մահացած հարազատների ձայնը», - ասաց «Վերականգնել գաղտնիության» գաղտնիության փորձագետ Բիլ Մանը: Lifewire էլփոստի միջոցով: «Որոշ մարդկանց համար դա ամենևին էլ սարսափելի չէ: Իրականում այն կարող է բավականին հուզիչ լինել»:

Ուրվականը մեքենայի մեջ

Իր ամենամյա re:MARS կոնֆերանսի շրջանակներում Amazon-ը ցուցադրում է հնարավորությունը կարճ տեսանյութով: Դրանում մի երեխա հարցնում է Ալեքսային, թե արդյոք տատիկը կարող է շարունակել կարդալ «Օզի կախարդը»՝ յուրաքանչյուր երեխայի սիրելի հանրային տիրույթի հիմնական ստեղծագործությունը: Եվ դա բավականին հուզիչ պահ է: Դժվար է չզգալ մարդկային զգացմունքները, երբ տատիկը սկսում է կարդալ:

«Մարդիկ պայքարում են մահացության դեմ, հատկապես արևմտյան մշակույթում: Դարեր շարունակ մենք փորձել ենք ուղիներ գտնել մահացածների հիշատակը հավերժացնելու համար՝ սկսած մահվան դիմակներից, մինչև մազերի կողպեքներ, մինչև հին լուսանկարներ, մինչև հին ֆիլմեր դիտելը», - Էնդրյու Սելեպակ,-ը Ֆլորիդայի համալսարանի սոցիալական մեդիայի պրոֆեսորն ասել է Lifewire-ին էլեկտրոնային փոստով: «Deepfakes-ն օգտագործում է նորագույն տեխնոլոգիա՝ մահացած սիրելիի մահվան նոր դիմակ ստեղծելու համար: Բայց, կախված մարդու տեսակետից, դա սահմռկեցուցիչ է, թե՞ հիշելու և նրան պահելու միջոց, ում սիրում ես նրա մահից հետո»:

Բայց memento mori-ը կարող է և՛ մխիթարիչ, և՛ սողացող լինել: Ընտանիքի անդամի ընկերը մահացել է, բայց դուք դեռ կարող եք լսել նրանց խոսակցությունը: Չի օգնում, որ Alexa-ն տարօրինակ և երբեմն սարսափելի վարքագծի պատմություն ունի: 2018 թվականին, երբ NYT-ի սյունակագիր Ֆարհադ Մանջուն պառկել էր անկողնում, նրա Amazon Echo-ն «սկսեց լաց լինել, ինչպես երեխային գոռում է սարսափ ֆիլմի երազում»:

Շուտով Amazon-ը խոստովանեց, որ Alexa-ն երբեմն բարձրաձայն ծիծաղում է, ինչը դեռահասների և նկուղների հետ միասին սարսափ ֆիլմ է 101:

Կարելի է միայն զարմանալ, թե ինչպես կզգաք, եթե Alexa-ն նույն հնարքները կատարեր տատիկի ձայնով:

Խորը կեղծ

Ալեքսան սովորում է ձայնը նմանակել ակնհայտ հեշտությամբ, մեզ տանում է դեպի ձայնի կլոնավորման ավելի չար կիրառումներ՝ խորը կեղծիքներ:

Image
Image

«Խորը կեղծ ձայնը նորություն չէ, նույնիսկ եթե այն քիչ հասկացված է և քիչ հայտնի: Տեխնոլոգիան հասանելի է տարիներ շարունակ՝ արհեստական ինտելեկտի և խորը ուսուցման միջոցով անհատի ձայնը վերստեղծելու համար՝ օգտագործելով տվյալ անձի համեմատաբար քիչ իրական ձայնը»: ասում է Սելեպակը։ «Նման տեխնոլոգիան կարող է նաև վտանգավոր և կործանարար լինել: Անհանգստացած անհատը կարող է վերստեղծել մահացած նախկին ընկերոջ կամ ընկերուհու ձայնը և օգտագործել նոր աուդիո՝ ատելություն պատճառող և վիրավորական բաներ ասելու համար»:

Դա պարզապես Alexa-ի համատեքստում է: Խորը կեղծ ձայնը կարող է շատ ավելին լինել, համոզելով մարդկանց, որ հայտնի քաղաքական գործիչները հավատում են այնպիսի բաների, որոնք, օրինակ, չեն հավատում:Բայց մյուս կողմից, որքան մենք ընտելանանք այս խորը կեղծիքներին, միգուցե այս Alexa ձայների տեսքով, այնքան ավելի թերահավատ կլինենք ավելի ստոր կեղծիքների նկատմամբ: Հետո նորից, հաշվի առնելով, թե որքան հեշտ է սուտ տարածելը Facebook-ում, գուցե ոչ:

Amazon-ը չի ասել, թե արդյոք այս գործառույթը գալիս է Alexa-ին, թե դա պարզապես տեխնոլոգիական ցուցադրություն է: Ես մի տեսակ հույս ունեմ, որ դա տեղի կունենա: Տեխնոլոգիան լավագույնն է, երբ այն օգտագործվում է հումանիստական նման ձևով, և թեև հեշտ արձագանքը դա սարսափելի անվանելն է, ինչպես ասում է Սելեպակը, այն իրականում այնքան էլ չի տարբերվում հին տեսանյութեր դիտելուց կամ պահպանված ձայնային հաղորդագրություններ լսելուց: ինչպես ծույլ սցենարով հեռուստաշոուի կերպար։

Եվ եթե խորը կեղծիքների տեխնոլոգիան մատչելի է, ինչո՞ւ չօգտագործել այն մեզ մխիթարելու համար:

Խորհուրդ ենք տալիս: