Հիմնական տանողներ
- Հաղորդվում է, որ Zoom-ն ասել է, որ կօգտագործի AI-ն՝ գնահատելու օգտատերերի տրամադրությունները կամ ներգրավվածության մակարդակը:
- Մարդու իրավունքների խմբերը խնդրում են Zoom-ին վերանայել իր ծրագիրը՝ ելնելով գաղտնիության և տվյալների անվտանգության նկատառումներից:
- Որոշ ընկերություններ հարցազրույցների ժամանակ օգտագործում են նաև զգացմունքները հայտնաբերող ծրագրակազմ՝ գնահատելու, թե արդյոք օգտատերը ուշադրություն է դարձնում:
Արհեստական ինտելեկտի (AI) աճող օգտագործումը մարդու զգացմունքները վերահսկելու համար մտահոգություններ է առաջացնում գաղտնիության մասին:
Իրավապաշտպան կազմակերպությունները խնդրում են Zoom-ին դանդաղեցնել իր ծրագիրը՝ վիդեոկոնֆերանսների ծրագրային ապահովման մեջ հույզերի վերլուծող ինտելեկտը ներդնելու համար: Հաղորդվում է, որ ընկերությունը հայտարարել է, որ AI-ն կօգտագործի օգտատերերի տրամադրությունների կամ ներգրավվածության մակարդակը գնահատելու համար:
«Փորձագետները խոստովանում են, որ զգացմունքների վերլուծությունը չի աշխատում», - գրել է իրավապաշտպան խմբերի կոնսորցիումը, ներառյալ ACLU-ն, Zoom-ին ուղղված նամակում: «Դեմքի արտահայտությունները հաճախ անջատված են ներքևում գտնվող զգացմունքներից, և հետազոտությունները ցույց են տվել, որ նույնիսկ մարդիկ չեն կարող որոշ ժամանակ ճշգրիտ կարդալ կամ չափել ուրիշների զգացմունքները: Այս գործիքի մշակումը վստահություն է հաղորդում կեղծ գիտությանը և վտանգում է ձեր հեղինակությունը»:
Zoom-ը անմիջապես չպատասխանեց Lifewire-ի մեկնաբանության խնդրանքին:
Պահպանեք ձեր զգացմունքները
Համաձայն Արձանագրության հոդվածի, Zoom մոնիտորինգի համակարգը, որը կոչվում է Q for Sales, ստուգում է օգտատերերի խոսակցության ժամանակի հարաբերակցությունը, արձագանքման ժամանակի հետաձգումը և բարձրախոսների հաճախակի փոփոխությունները՝ հետևելու, թե որքանով է ներգրավված մարդը:Zoom-ը կօգտագործի այս տվյալները զրոյից մինչև 100 միավորներ նշանակելու համար, իսկ ավելի բարձր միավորները ցույց են տալիս ավելի մեծ ներգրավվածություն կամ տրամադրություն:
Մարդու իրավունքների խմբերը պնդում են, որ ծրագրաշարը կարող է խտրականություն դրսևորել հաշմանդամություն ունեցող մարդկանց կամ որոշակի էթնիկական պատկանելությունների նկատմամբ՝ ենթադրելով, որ բոլորն օգտագործում են նույն դեմքի արտահայտությունները, ձայնային ձևերը և մարմնի լեզուն հաղորդակցվելու համար: Խմբերը նաև առաջարկում են, որ ծրագրաշարը կարող է տվյալների անվտանգության վտանգ հանդիսանալ:
«Խորապես անձնական տվյալների հավաքագրումը կարող է այս տեխնոլոգիան կիրառող ցանկացած կազմակերպություն թիրախ դարձնել պետական մարմիններին և չարամիտ հաքերներին», - ասվում է նամակում:
Նյու Յորքի համալսարանի համակարգչային գիտության և ճարտարագիտության պրոֆեսոր Յուլիա Ստոյանովիչը Lifewire-ին տված հարցազրույցում ասել է, որ թերահավատ է զգացմունքների հայտնաբերման հիմքում ընկած պնդումներին:
«Ես չեմ տեսնում, թե ինչպես է նման տեխնոլոգիան կարող աշխատել,- մարդկանց հուզական արտահայտությունը շատ անհատական է, շատ մշակութային կախված է և շատ կոնկրետ կոնտեքստից», - ասաց Ստոյանովիչը:«Բայց, թերևս ավելի կարևոր է, ես չեմ հասկանում, թե ինչու մենք կցանկանայինք, որ այս գործիքները աշխատեին: Այսինքն, մենք ավելի մեծ դժվարության մեջ կհայտնվեինք, եթե դրանք լավ աշխատեին: Բայց գուցե նույնիսկ ռիսկերի մասին մտածելուց առաջ մենք պետք է հարցրեք, որո՞նք են նման տեխնիկայի հնարավոր օգուտները:"
Zoom-ը միակ ընկերությունը չէ, որն օգտագործում է զգացմունքները հայտնաբերող ծրագրակազմ: Գաղտնիության և անվտանգության խորհրդատվական ընկերության՝ Kuma LLC-ի գաղտնիության ավագ տնօրեն Թեո Ուիլսը էլփոստի միջոցով Lifewire-ին ասաց, որ զգացմունքները հայտնաբերելու ծրագրակազմն օգտագործվում է հարցազրույցների ժամանակ՝ գնահատելու, թե արդյոք օգտատերը ուշադրություն է դարձնում: Այն նաև փորձնական է կիրառվում տրանսպորտային ոլորտում՝ հետևելու, թե արդյոք վարորդները քնկոտ են թվում, տեսահոլովակների վրա՝ հետաքրքրությունը չափելու և առաջարկությունները հարմարեցնելու համար, ինչպես նաև ուսումնական ձեռնարկներում՝ որոշելու, թե արդյոք ուսուցման որոշակի մեթոդ է գրավիչ:
Ուիլսը պնդում էր, որ զգացմունքների մոնիտորինգի ծրագրային ապահովման շուրջ հակասություններն ավելի շատ տվյալների էթիկայի հարց են, քան գաղտնիության: Նա ասաց, որ խոսքը գնում է համակարգի մասին, որը որոշումներ կայացնում է իրական կյանքում՝ հիմնվելով կանխորոշումների վրա:
«Այս տեխնոլոգիայով դուք այժմ ենթադրում եք, թե ինչու եմ ես իմ դեմքի հատուկ արտահայտությունը, բայց արտահայտության հիմքում ընկած խթանը շատ տարբեր է` պայմանավորված այնպիսի բաներով, ինչպիսիք են սոցիալական կամ մշակութային դաստիարակությունը, ընտանեկան վարքագիծը, անցյալի փորձը կամ նյարդայնությունը: այս պահին»,- հավելել է Ուիլսը։ «Ալգորիթմը ենթադրության վրա հիմնելն իր էությամբ թերի է և պոտենցիալ խտրական: Շատ պոպուլյացիաներ ներկայացված չեն պոպուլյացիայի մեջ, որոնց վրա հիմնված են ալգորիթմները, և նախքան դա օգտագործելը պետք է առաջնահերթություն տրվի համապատասխան ներկայացմանը»::
Գործնական նկատառումներ
Զգացմունքների հետագծման ծրագրային ապահովման կողմից առաջացած խնդիրները կարող են լինել գործնական, ինչպես նաև տեսական: Մեթ Հեյսին՝ Ferret.ai-ի համահիմնադիրը, որը AI-ի վրա հիմնված հավելված է, որը տրամադրում է հարաբերությունների հետախուզություն, Lifewire-ին նամակով հայտնել է, որ օգտատերերը պետք է հարցնեն, թե որտեղ է կատարվում դեմքերի վերլուծությունը և ինչ տվյալներ են պահվում: Արդյո՞ք ուսումնասիրությունն արվում է զանգերի ձայնագրությունների, մշակված ամպի կամ տեղական սարքի վրա:
Նաև, Հեյսին հարցրեց, քանի որ ալգորիթմը սովորում է, ի՞նչ տվյալներ է այն հավաքում մարդու դեմքի կամ շարժումների մասին, որոնք կարող են պոտենցիալ անջատվել ալգորիթմից և օգտագործվել ինչ-որ մեկի կենսաչափական ցուցանիշները վերստեղծելու համար: Արդյո՞ք ընկերությունը պահում է նկարներ՝ ստուգելու կամ հաստատելու համար ալգորիթմի գիտելիքները, և օգտատերը ծանուցվա՞ծ է այս նոր ածանցյալ տվյալների կամ պահված պատկերների մասին, որոնք հնարավոր է հավաքագրվեն իրենց զանգերից::
«Սրանք բոլոր խնդիրներն են, որոնք շատ ընկերություններ լուծել են, բայց կան նաև ընկերություններ, որոնք ցնցվել են սկանդալով, երբ պարզվում է, որ նրանք դա ճիշտ չեն արել», - ասաց Հեյզին: «Facebook-ը ընկերության ամենակարևոր դեպքն է, որը հետ դարձրեց դեմքի ճանաչման իր հարթակը օգտատերերի գաղտնիության հետ կապված մտահոգությունների պատճառով: Meta մայր ընկերությունն այժմ հանում է AR գործառույթները Instagram-ից որոշ իրավասություններում, ինչպիսիք են Իլինոյսը և Տեխասը, կենսաչափական տվյալների շուրջ գաղտնիության օրենքների պատճառով»: