Հիմնական տանողներ
- Նոր ծրագրային գործիքը թույլ է տալիս արհեստական ինտելեկտին վերահսկել ատելության խոսքի համար ինտերնետային մեկնաբանությունները:
- AI-ն անհրաժեշտ է ինտերնետի բովանդակությունը չափավորելու համար, քանի որ նյութի հսկայական ծավալը գերազանցում է մարդկային կարողությունները:
- Բայց որոշ փորձագետներ ասում են, որ խոսքի արհեստական ինտելեկտի մոնիտորինգը մտահոգություններ է առաջացնում գաղտնիության մասին:
Որպես առցանց ատելության խոսքի աճ է նկատվում, ընկերություններից մեկն ասում է, որ կարող է ունենալ այնպիսի լուծում, որը չի հիմնվի մարդկային մոդերատորների վրա:
Ստարտափը, որը կոչվում է Spectrum Labs, արհեստական ինտելեկտի տեխնոլոգիա է տրամադրում հարթակի մատակարարներին՝ իրական ժամանակում թունավոր փոխանակումները հայտնաբերելու և անջատելու համար: Սակայն փորձագետներն ասում են, որ արհեստական ինտելեկտի մոնիտորինգը բարձրացնում է նաև գաղտնիության խնդիրներ:
«AI-ի մոնիտորինգը հաճախ պահանջում է ժամանակի ընթացքում դիտարկել օրինաչափությունները, ինչը պահանջում է տվյալների պահպանման անհրաժեշտություն», - Lifewire-ին էլփոստի հարցազրույցում ասաց Schellman-ի ավագ գործընկեր Դեյվիդ Մուդին, որը անվտանգության և գաղտնիության համապատասխանության գնահատման ընկերություն է: «Այս տվյալները կարող են ներառել տվյալներ, որոնք օրենքները նշել են որպես գաղտնիության տվյալներ (անձնական նույնականացման տվյալներ կամ PII):»
Ավելի շատ ատելության խոսք
Spectrum Labs-ը խոստանում է բարձր տեխնոլոգիական լուծում ատելության խոսքի դարավոր խնդրին:
«Միջին հաշվով մենք օգնում ենք հարթակներին 50%-ով նվազեցնել բովանդակության չափավորման ջանքերը և ավելացնել թունավոր վարքագծի հայտնաբերումը 10 անգամ», - պնդում է ընկերությունը իր կայքում։
Spectrum-ն ասում է, որ աշխատել է հատուկ վնասակար վարքագծի փորձով գիտահետազոտական ինստիտուտների հետ՝ ստեղծելու վարքագծի նույնականացման ավելի քան 40 մոդել: Ընկերության Guardian բովանդակության մոդերատորական հարթակը ստեղծվել է տվյալների գիտնականների և մոդերատորների թիմի կողմից՝ «աջակցելու համայնքներին թունավորությունից պաշտպանելուն»:«
Ատելության խոսքի դեմ պայքարելու եղանակների աճող անհրաժեշտություն կա, քանի որ մարդու համար անհնար է վերահսկել առցանց տրաֆիկի յուրաքանչյուր հատվածը, Դիլան Ֆոքսը՝ AssemblyAI-ի գործադիր տնօրենը, որը ստարտափ է, որն ապահովում է խոսքի ճանաչում և հաճախորդներ ներգրավված ատելության մոնիտորինգում: ելույթը, ասել է Lifewire-ը էլեկտրոնային հարցազրույցում:
«Միայն Twitter-ում օրական մոտ 500 միլիոն թվիթ կա», - ավելացրեց նա: «Նույնիսկ եթե մեկ մարդ կարողանա ստուգել թվիթը յուրաքանչյուր 10 վայրկյանը մեկ, Twitter-ը պետք է աշխատի 60 հազար մարդ դա անելու համար: Փոխարենը, մենք օգտագործում ենք խելացի գործիքներ, ինչպիսին է AI-ն՝ գործընթացը ավտոմատացնելու համար»:
Ի տարբերություն մարդու, AI-ն կարող է գործել 24/7 և պոտենցիալ ավելի արդար լինել, քանի որ այն նախատեսված է միատեսակ կիրառելու իր կանոնները բոլոր օգտատերերի նկատմամբ՝ առանց որևէ անձնական համոզմունքների միջամտության, ասել է Ֆոքսը: Գնումներ կան նաև այն մարդկանց համար, ովքեր պետք է վերահսկեն և չափավորեն բովանդակությունը:
«Նրանք կարող են ենթարկվել բռնության, ատելության և ստոր արարքների, որոնք կարող են վնասել մարդու հոգեկան առողջությանը», - ասաց նա:
Spectrum-ը միակ ընկերությունը չէ, որը փորձում է ավտոմատ կերպով հայտնաբերել առցանց ատելության խոսքը: Օրինակ, Մալայզիայի կենտրոնը վերջերս գործարկեց առցանց թրեքեր, որը նախատեսված էր ատելության խոսք գտնելու Մալայզիայի ցանցի օգտագործողների շրջանում: Ծրագրաշարը, որը նրանք մշակել են, կոչվում է Tracker Benci-ն օգտագործում է մեքենայական ուսուցում՝ ատելության խոսքը առցանց հայտնաբերելու համար, մասնավորապես՝ Twitter-ում:
Խնդիրն այն է, թե ինչպես ստեղծել տարածքներ, որտեղ մարդիկ իսկապես կարող են կառուցողականորեն ներգրավվել միմյանց հետ:
Գաղտնիության մտահոգություններ
Չնայած Spectrum-ի նման տեխնոլոգիական լուծումները կարող են պայքարել առցանց ատելության խոսքի դեմ, դրանք նաև հարցեր են առաջացնում այն մասին, թե որքան պետք է անեն ոստիկանական համակարգիչները:
Կան խոսքի ազատության հետևանքներ, բայց ոչ միայն այն բանախոսների համար, ում գրառումները կհեռացվեն որպես ատելության խոսք, Lifewire-ին նամակով ասաց Իրինա Ռայկուն՝ Սանտա Կլարայի համալսարանի Մարկկուլա կիրառական էթիկայի կենտրոնի ինտերնետային էթիկայի տնօրենը: հարցազրույց.
«Խոսքի ազատության» անվան տակ ոտնձգությունների թույլտվությունը դրդել է նման խոսքի թիրախներին (հատկապես այն դեպքում, երբ ուղղված է որոշակի անձանց) դադարեցնել խոսելը` ամբողջովին հրաժարվել տարբեր խոսակցություններից և հարթակներից», - ասաց Ռայկուն:«Խնդիրն այն է, թե ինչպես ստեղծել տարածքներ, որտեղ մարդիկ իսկապես կարող են կառուցողականորեն ներգրավվել միմյանց հետ»:
AI խոսքի մոնիտորինգը չպետք է բարձրացնի գաղտնիության հետ կապված խնդիրներ, եթե ընկերությունները մոնիտորինգի ընթացքում օգտագործում են հանրությանը հասանելի տեղեկատվություն, ասել է Ֆոքսը: Այնուամենայնիվ, եթե ընկերությունը գնում է մանրամասներ այն մասին, թե ինչպես են օգտատերերը փոխազդում այլ հարթակներում՝ խնդրահարույց օգտատերերին նախապես բացահայտելու համար, դա կարող է առաջացնել գաղտնիության հետ կապված մտահոգություններ:
«Դա միանշանակ կարող է լինել մի փոքր մոխրագույն տարածք՝ կախված հավելվածից», - ավելացրեց նա:
Ջասթին Դևիսը՝ Spectrum Labs-ի գործադիր տնօրենը, Lifewire-ին նամակով հայտնել է, որ ընկերության տեխնոլոգիան կարող է վայրկյանի կոտորակում դիտարկել տվյալների 2-ից 5 հազար տող: «Ամենակարևորը, տեխնոլոգիան կարող է նվազեցնել թունավոր բովանդակության քանակը, որին ենթարկվում են մարդավարները», - ասաց նա:
Մենք կարող ենք հեղափոխության եզրին լինել AI-ի՝ առցանց մարդու խոսքի և տեքստի մոնիտորինգի ոլորտում: Ապագա առաջընթացը ներառում է ավելի լավ անկախ և ինքնավար մոնիտորինգի հնարավորություններ՝ բացահայտելու ատելության խոսքի նախկինում անհայտ ձևերը կամ գրաքննության ցանկացած այլ ձևեր, որոնք կզարգանան, ասաց Մուդին:
AI-ը նույնպես շուտով կկարողանա ճանաչել խոսքի հատուկ ձևերի օրինաչափությունները և կապել աղբյուրները և դրանց այլ գործողությունները նորությունների վերլուծության, հանրային փաստաթղթերի, երթևեկության ձևերի վերլուծության, ֆիզիկական մոնիտորինգի և շատ այլ տարբերակների միջոցով, ավելացրեց նա:
Բայց որոշ փորձագետներ ասում են, որ մարդիկ միշտ պետք է աշխատեն համակարգիչների հետ՝ ատելության խոսքը հետևելու համար:
«Միայն AI-ն չի աշխատի», - ասաց Ռայկուն: «Դա պետք է ճանաչվի որպես մեկ անկատար գործիք, որը պետք է օգտագործվի այլ պատասխանների հետ միասին»:
Ուղղում 1/25/2022: Ավելացվեց Ջասթին Դևիսի մեջբերումը վերջից 5-րդ պարբերությունում՝ հետհրատարակման նամակն արտացոլելու համար: