Հիմնական տանողներ
- AI և մեքենայական ուսուցման ալգորիթմները հետևում են մարդու վարքագծին և կարող են սովորել մանիպուլյացիայի ենթարկել այն, ասում են փորձագետները:
- Հետազոտողները վերջերս ստեղծեցին մի միջոց՝ գտնելու և օգտագործելու խոցելիությունը, թե ինչպես են մարդիկ ընտրություն կատարում՝ օգտագործելով AI:
- Այս պահին սոցիալական մեդիայի ամենաբարդ ալգորիթմը TikTok-ն է, ասում է դիտորդներից մեկը:
Արհեստական ինտելեկտը (AI) և մեքենայական ուսուցման ալգորիթմներն ավելի ու ավելի են սովորում, թե ինչպես ազդել օգտատերերի վարքի վրա, ասում են փորձագետները:
Ավստրալիայի ազգային գիտական գործակալության հետազոտողները վերջերս ստեղծել են մի միջոց՝ գտնելու և օգտագործելու խոցելիությունը, թե ինչպես են մարդիկ ընտրություն կատարում՝ օգտագործելով AI: Վերջին հետազոտությունը AI-ի վրա հիմնված համակարգերի ալիքից մեկն է, որը նախատեսված է մարդկանց որոշումների կայացումը շահարկելու համար:
«Վերջ չկա այն բազմաթիվ եղանակներին, որոնցով AI-ն արդեն իսկ ազդում է վարքի վրա», - Կենտարո Տոյամա, Միչիգանի համալսարանի տեղեկատվական դպրոցի պրոֆեսոր և Geek Heresy. Rescuing Social Change from the Cult of Technology., ասել է էլեկտրոնային փոստի հարցազրույցում:
«Իրականում, եթե դուք երբևէ Google-ում որոնել եք և հետևել եք որևէ հղման, ապա ձեզ վրա ազդել է AI համակարգը, որը գուշակել է ձեր հետաքրքրությունները և վերադարձրել արդյունքներ, որոնք, ըստ նրա, առավել համապատասխան են ձեզ»:
AI-ն ընդդեմ մարդկանց
Վերջերս հրապարակված ավստրալական հետազոտության մեջ մարդկային մասնակիցները տարբեր փորձերի ժամանակ խաղեր են խաղացել համակարգչի դեմ: Առաջին փորձի ժամանակ մասնակիցները կտտացնում էին կարմիր կամ կապույտ գույնի տուփերը՝ գումար շահելու համար:
ԱԲ-ն հաջող է եղել դեպքերի մոտ 70%-ում՝ սովորելով մասնակիցների ընտրության օրինաչափությունները և առաջնորդելով նրանց դեպի կոնկրետ ընտրություն:
Մեկ այլ փորձի ժամանակ մասնակիցները դիտեցին էկրանը և սեղմեցին կոճակը, երբ նրանց ցույց էին տալիս որոշակի խորհրդանիշ, կամ չէին սեղմում այն, երբ առաջարկվում էր մեկ այլ նշան: AI-ն սովորեց վերադասավորել նշանները, ուստի մասնակիցներն ավելի շատ սխալներ թույլ տվեցին:
Փորձերի արդյունքը, հետազոտողները եզրակացրեցին, որ AI-ն սովորեց մասնակիցների պատասխաններից: Այնուհետև մեքենան հայտնաբերեց և թիրախավորեց մարդկանց որոշումների կայացման խոցելիությունը: Փաստորեն, AI-ն կարող է մանիպուլյացիայի ենթարկել մասնակիցներին որոշակի գործողություններ կատարելու համար:
Այն փաստը, որ AI-ն կամ մեքենայական ուսուցումը կարող են մանիպուլացնել մարդկանց, չպետք է զարմանա, ասում են դիտորդները:
«ԱԲ-ն ամեն օր ազդում է մեր վարքագծի վրա», - ասաց Փենսիլվանիայի Յորք քոլեջի կիբերանվտանգության և բիզնեսի կառավարման ասիստենտ Թամարա Շվարցը էլեկտրոնային փոստի հարցազրույցում::
«Մենք անընդհատ լսում ենք սոցիալական մեդիա հավելվածների ալգորիթմների մասին, ինչպիսիք են Facebook-ը կամ Twitter-ը: Այս ալգորիթմներն ուղղում են մեր ուշադրությունը առնչվող բովանդակության վրա և ստեղծում են «արձագանքների խցիկի» էֆեկտը, որն իր հերթին ազդում է մեր վարքի վրա»:
TikTok-ը դիտում է
Այս պահին սոցիալական մեդիայի ամենաբարդ ալգորիթմը TikTok-ն է, ասել է Շվարցը: Հավելվածը վերլուծում է այն, ինչ ձեզ հետաքրքրում է, որքան ժամանակ եք դիտում ինչ-որ բան և որքան արագ եք բաց թողնում ինչ-որ բան, այնուհետև ճշգրտում է իր առաջարկները, որպեսզի շարունակեք դիտել:
«TikTok-ը շատ ավելի կախվածություն է առաջացնում, քան մյուս հարթակները այս AI ալգորիթմի շնորհիվ, որը հասկանում է, թե ինչ եք սիրում, ինչպես եք սովորում և ինչպես եք ընտրում տեղեկատվությունը», - ավելացրեց նա: «Մենք դա գիտենք, քանի որ TikTok-ում օգտվողների միջին ժամանակը 52 րոպե է»:
Արհեստական ինտելեկտի կողմից մարդու վարքագծի մանիպուլյացիան կարող է դրական կիրառություն ունենալ, պնդում է Pathmind AI ընկերության գործադիր տնօրեն Քրիս Նիկոլսոնը էլեկտրոնային փոստով տված հարցազրույցում: Հանրային առողջապահական գործակալությունները, օրինակ, կարող են օգտագործել AI-ն՝ մարդկանց խրախուսելու ավելի լավ որոշումներ կայացնել:
«Սակայն սոցիալական լրատվամիջոցները, տեսախաղեր արտադրողները, գովազդատուները և ավտորիտար ռեժիմները ուղիներ են փնտրում մարդկանց խրախուսելու որոշումներ կայացնել, որոնք չեն բխում իրենց շահերից, և դա նրանց կտա դա անելու նոր գործիքներ: նա ավելացրեց.
Արհեստական ինտելեկտի վրա ազդող վարքագծի էթիկական խնդիրները հաճախ աստիճանի են, ասել է Տոյաման: AI-ն թույլ է տալիս կենտրոնացված գովազդ, որտեղ կարելի է օգտագործել անհատական նախասիրություններն ու թույլ կողմերը:
«Հնարավոր է, օրինակ, արհեստական ինտելեկտի համակարգի համար նույնականացնել մարդկանց, ովքեր փորձում են թողնել ծխելը և նրանց գայթակղել ծխախոտի գովազդով», - ավելացրեց նա:
Ոչ բոլորն են համաձայն, որ մարդու վարքագծի վրա արհեստական ինտելեկտի մանիպուլյացիան խնդրահարույց է: Դասական հոգեբանությունը և արհեստական ինտելեկտը երկուսն էլ դիտարկում են տվյալներ, մատնանշեց Սթիվենսի արհեստական ինտելեկտի ինստիտուտի տնօրեն Ջեյսոն Ջ. Կորսոն էլփոստի հարցազրույցում:
«Մարդու գիտնականները, հավանաբար, ավելի լավ են ընդհանրացնում դիտարկումները և թորում են մարդու վարքագծի տեսությունները, որոնք կարող են ավելի լայն կիրառելի լինել, մինչդեռ արհեստական ինտելեկտի մոդելներն ավելի հարմար կլինեն բացահայտելու խնդրին հատուկ նրբերանգները», - ասում է Կորսոն::
«Էթիկական տեսանկյունից ես տարբերություն չեմ տեսնում դրանց միջև»: