Հիմնական տանողներ
- Ծրագիրը, որն օգտագործում է արհեստական ինտելեկտը մարդկանց պրոֆիլի համար, մտահոգություններ է առաջացնում գաղտնիության մասին:
- Cryfe-ը համատեղում է վարքագծային վերլուծության տեխնիկան արհեստական ինտելեկտի հետ:
- Չինական Alibaba ընկերությունը վերջերս բախվեց քննադատության այն բանից հետո, երբ ասվում էր, որ իր ծրագրակազմը կարող է հայտնաբերել ույղուրներին և այլ էթնիկ փոքրամասնություններին:
Արհեստական ինտելեկտով սնուցվող նոր ծրագրաշարը, որը նախատեսված է գործատուների համար՝ իրենց աշխատակիցներին պրոֆիլավորելու համար, մտահոգություններ է առաջացնում գաղտնիության մասին:
Մեկ նոր ծրագրային հարթակ, որը կոչվում է Cryfe, համատեղում է վարքագծային վերլուծության տեխնիկան արհեստական ինտելեկտի հետ: Մշակողը պնդում է, որ վերլուծելով մանրուքները՝ ծրագրաշարը կարող է բացահայտել մարդկանց մտադրությունները հարցազրույցների ժամանակ: Սակայն որոշ դիտորդներ ասում են, որ Cryfe-ը և վարքագիծը վերլուծող այլ տեսակի ծրագրեր կարող են ներխուժել գաղտնիություն:
«Ընկերություններն ավելի ու ավելի են ապավինում արհեստական ինտելեկտին պրոֆիլավորման համար»,- ասել է AI փորձագետ Վացլավ Վինկալեն էլեկտրոնային փոստով տված հարցազրույցում: «Բայց նույնիսկ այն մարդիկ, ովքեր կոդավորում են այս ալգորիթմները, առավել ևս հաճախորդի աջակցության անձը, ում հետ կապվում եք հեռախոսով, չեն կարող ասել ձեզ, թե ինչու են նրանք տալիս որևէ առաջարկություն»:
Բառերից ավելի
Cryfe-ը մշակվել է շվեյցարական ընկերության կողմից, որի աշխատակիցները ՀԴԲ-ի կողմից վերապատրաստվել են պրոֆիլավորման տեխնիկայի վերաբերյալ: «Cryfe-ը ողջ միջանձնային հաղորդակցության մեջ ոչ միայն լսում է բառերը, այլ նույնացնում է մարդու կողմից արձակված այլ ազդանշաններ, ինչպիսիք են հույզերը, միկրոարտահայտումները և բոլոր ժեստերը»,- ասել է Cryfe-ի հիմնադիր Կարոլին Մատեուչին էլեկտրոնային հարցազրույցում:
«Օրինակ հավաքագրման ժամանակ սա մեզ թույլ է տալիս գնալ և փնտրել մեր զրուցակցի իրական անհատականությունը»:
Մատտեուչին ասաց, որ օգտատերերի գաղտնիությունը պաշտպանված է, քանի որ ընկերությունը թափանցիկ է այն մասին, թե ինչպես է աշխատում իր ծրագրաշարը: «Օգտատերը, նախքան հարթակն օգտագործելը, պետք է ընդունի ընդհանուր պայմանները», - ասաց նա։
«Այնտեղ նշված է, որ օգտատերը ոչ մի դեպքում չի կարող հարցազրույց ներկայացնել վերլուծության համար՝ առանց զրուցակցի գրավոր համաձայնությունը ստանալու։»
Cryfe-ը արհեստական ինտելեկտով աշխատող միակ ծրագրաշարը չէ, որը հավակնում է վերլուծել մարդու վարքագիծը: Կա նաև Humantic-ը, որը հավակնում է վերլուծել սպառողների վարքագիծը: «Humantic-ի ճեղքող տեխնոլոգիան կանխատեսում է բոլորի վարքագիծը՝ առանց անձի թեստ անցնելու անհրաժեշտության», - ասվում է ընկերության կայքում:
Ընկերությունը պնդում է, որ օգտագործում է AI՝ դիմորդների հոգեբանական պրոֆիլներ ստեղծելու համար՝ հիմնվելով այն բառերի վրա, որոնք նրանք օգտագործում են ռեզյումեներում, ուղեկցող նամակներում, LinkedIn պրոֆիլներում և տեքստի ցանկացած այլ հատվածում, որը նրանք ներկայացնում են:
Վարքային ծրագրերը նախկինում բախվել են իրավական մարտահրավերների: 2019 թվականին Bloomberg Law-ը զեկուցել է, որ Աշխատանքի հավասար հնարավորությունների հանձնաժողովը (EEOC) ուսումնասիրել է ենթադրյալ անօրինական խտրականության դեպքերը, որոնք պայմանավորված են ալգորիթմի օգնությամբ, կադրերի հետ կապված որոշումներով։։
«Այս ամենը պետք է մշակվի, քանի որ հավաքագրման ապագան արհեստական ինտելեկտն է», - ասաց փաստաբան Բրեդֆորդ Նյումանը Bloomberg-ին:
Որոշ դիտորդներ հակասում են ընկերություններին, որոնք օգտագործում են վարքագծի հետևման ծրագրակազմ, քանի որ այն բավականաչափ ճշգրիտ չէ: Հարցազրույցում EY արհեստական ինտելեկտի համաշխարհային առաջնորդ Նայջել Դաֆին InformationWeek-ին ասել է, որ իրեն անհանգստացնում է ծրագրակազմը, որն օգտագործում է սոցիալական մեդիայի վիկտորինաներ և ազդում հայտնաբերման վրա:
«Կարծում եմ, որ կա որոշ իսկապես ազդեցիկ գրականություն ազդեցության հայտնաբերման ներուժի վերաբերյալ, բայց իմ հասկացողությունն այն է, որ հաճախակի կիրառվող ձևը բավականին միամիտ է», - ասաց նա:
«Մարդիկ եզրակացություններ են անում, որ գիտությունն իրականում չի աջակցում [օրինակ] որոշել, որ ինչ-որ մեկը պոտենցիալ լավ աշխատող է, քանի որ նրանք շատ են ժպտում կամ որոշում են, որ ինչ-որ մեկին դուր է գալիս ձեր արտադրանքը, քանի որ նրանք շատ են ժպտում: «
Չինական ընկերությունները, ըստ տեղեկությունների, ներկայացնում են փոքրամասնություններին
Վարքային հետևելը կարող է ունենալ նաև ավելի չար նպատակներ, ասում են իրավապաշտպան որոշ խմբեր: Չինաստանում առցանց շուկայի հսկա Alibaba-ն վերջերս մեծ աղմուկ բարձրացրեց այն բանից հետո, երբ, ըստ տեղեկությունների, իր ծրագրակազմը կարող է հայտնաբերել ույղուրներին և այլ էթնիկ փոքրամասնություններին:
The New York Times-ը հաղորդում է, որ ընկերության ամպային հաշվողական բիզնեսն ունի ծրագրակազմ, որը սկանավորում է պատկերները և տեսանյութերը:
Բայց նույնիսկ այն մարդիկ, ովքեր կոդավորում են այս ալգորիթմները… չկարողացան ձեզ ասել, թե ինչու են նրանք տալիս որևէ առաջարկություն:
The Washington Post-ը նաև վերջերս հայտնել է, որ Huawei-ը՝ մեկ այլ չինական տեխնոլոգիական ընկերություն, փորձարկել է ծրագրակազմ, որը կարող է ահազանգել իրավապահներին, երբ իր տեսախցիկները հայտնաբերում են ույղուրների դեմքերը:
Հաղորդվում է, որ Huawei-ի 2018 թվականի արտոնագրային հայտը պնդում է, որ «հետիոտնի հատկանիշների նույնականացումը շատ կարևոր է» դեմքի ճանաչման տեխնոլոգիայի մեջ:«Թիրախային օբյեկտի հատկանիշները կարող են լինել սեռը (տղամարդ, իգական), տարիքը (օրինակ՝ դեռահասներ, միջին տարիքի, ծեր) [կամ] ռասայական (հան, ույղուր)», - ասվում է հավելվածում։
Huawei-ի խոսնակը CNN Business-ին ասել է, որ ազգության նույնականացման հատկանիշը «երբեք չպետք է դառնա հավելվածի մաս»:
Արհեստական ինտելեկտի աճող կիրառումը հսկայական քանակությամբ տվյալներ տեսակավորելու համար կարող է առաջացնել գաղտնիության հետ կապված մտահոգություններ: Դուք երբեք չեք իմանա, թե ով կամ ինչ է ձեզ վերլուծում հաջորդ անգամ, երբ գնաք աշխատանքի հարցազրույցի: