AI-ն կարող է հասնել մարդկային բանականության հետ

Բովանդակություն:

AI-ն կարող է հասնել մարդկային բանականության հետ
AI-ն կարող է հասնել մարդկային բանականության հետ
Anonim

Հիմնական տանողներ

  • Հետազոտողները ստեղծել են մեթոդներ, որոնք թույլ են տալիս օգտվողներին դասակարգել մեքենայական ուսուցման մոդելի վարքագծի արդյունքները:
  • Փորձագետներն ասում են, որ մեթոդը ցույց է տալիս, որ մեքենաները հասնում են մարդկանց մտածողության կարողություններին:
  • AI-ի առաջընթացը կարող է արագացնել լեզուն հասկանալու համակարգիչների կարողության զարգացումը և հեղափոխել արհեստական ինտելեկտի և մարդկանց փոխազդեցության ձևը:
Image
Image

Նոր տեխնիկան, որը չափում է արհեստական ինտելեկտի (AI) տրամաբանական ուժը, ցույց է տալիս, որ մեքենաները հասցնում են մարդկանց մտածելու կարողություններին, ասում են փորձագետները:

ՄԻՏ-ի և IBM Research-ի հետազոտողները ստեղծել են մի մեթոդ, որը օգտվողին հնարավորություն է տալիս դասակարգել մեքենայական ուսուցման մոդելի վարքագծի արդյունքները: Նրանց տեխնիկան, որը կոչվում է Shared Interest, ներառում է չափումներ, որոնք համեմատում են մոդելի մտածողության համընկնում մարդկանց մտածողության հետ:

«Այսօր AI-ն ի վիճակի է հասնել (և, որոշ դեպքերում, գերազանցել) մարդու կատարողականը հատուկ առաջադրանքներում, ներառյալ պատկերի ճանաչումը և լեզվի ըմբռնումը», - Պիտեր Բուտեներս, մեքենայական ուսուցման ճարտարագիտության և կապի ոլորտում AI-ի տնօրեն։ Sinch ընկերությունը Lifewire-ին տված հարցազրույցում ասել է. «Բնական լեզվի մշակման (NLP) միջոցով AI համակարգերը կարող են մեկնաբանել, գրել և խոսել լեզուներ, ինչպես նաև մարդիկ, և AI-ն կարող է նույնիսկ հարմարեցնել իր բարբառն ու տոնայնությունը, որպեսզի համապատասխանի իր հասակակիցներին»::

Արհեստական խելացիներ

AI-ն հաճախ արդյունք է տալիս՝ չբացատրելով, թե ինչու են այդ որոշումները ճիշտ: Իսկ գործիքները, որոնք օգնում են փորձագետներին հասկանալ մոդելի հիմնավորումը, հաճախ միայն պատկերացումներ են տալիս, միաժամանակ միայն մեկ օրինակ:Արհեստական ինտելեկտը սովորաբար վարժվում է՝ օգտագործելով միլիոնավոր տվյալների մուտքագրումներ, ինչը դժվարացնում է մարդու համար բավարար որոշումներ գնահատել՝ օրինաչափությունները բացահայտելու համար:

Վերջերս կատարված աշխատության մեջ հետազոտողները ասացին, որ Shared Interest-ը կարող է օգնել օգտվողին բացահայտել մոդելի որոշումների կայացման միտումները: Եվ այս պատկերացումները կարող են թույլ տալ օգտվողին որոշել, թե արդյոք մոդելը պատրաստ է տեղակայման:

«Համատեղ հետաքրքրությունը զարգացնելիս մեր նպատակն է կարողանանք ընդլայնել այս վերլուծության գործընթացը, որպեսզի կարողանաք ավելի գլոբալ մակարդակով հասկանալ, թե որն է ձեր մոդելի վարքագիծը», - հոդվածի համահեղինակ Էնջի Բոգգուստը:, ասվում է լրատվական հաղորդագրության մեջ։

Համօգտագործվող հետաքրքրությունը օգտագործում է տեխնիկա, որը ցույց է տալիս, թե ինչպես է մեքենայական ուսուցման մոդելը որոշակի որոշում կայացրել, որը հայտնի է որպես կարևորության մեթոդներ: Եթե մոդելը դասակարգում է պատկերները, ապա աչքի ընկնող մեթոդները ընդգծում են պատկերի այն հատվածները, որոնք կարևոր են մոդելի համար, երբ նա որոշում է կայացնում: Shared Interest-ը աշխատում է՝ համեմատելով կարևոր մեթոդները մարդու կողմից ստեղծված ծանոթագրությունների հետ:

Հետազոտողները օգտագործեցին Shared Interest-ը, որպեսզի օգնեն մաշկաբանին որոշել, թե արդյոք նա պետք է վստահի մեքենայական ուսուցման մոդելին, որը նախատեսված է մաշկի վնասվածքների լուսանկարներից քաղցկեղի ախտորոշման համար: Համատեղ հետաքրքրությունը մաշկաբանին հնարավորություն տվեց արագ տեսնել մոդելի ճիշտ և սխալ կանխատեսումների օրինակները: Մաշկաբանը որոշեց, որ չի կարող վստահել մոդելին, քանի որ այն չափազանց շատ կանխատեսումներ է անում՝ հիմնված պատկերի արտեֆակտների, այլ ոչ թե իրական վնասվածքների վրա:

«Այստեղ արժեքն այն է, որ օգտագործելով Shared Interest-ը, մենք կարող ենք տեսնել, որ այս օրինաչափությունները ի հայտ են գալիս մեր մոդելի վարքագծում: Մոտ կես ժամվա ընթացքում մաշկաբանը կարողացավ որոշել՝ վստահե՞լ մոդելին, թե՞ ոչ, և կիրառել այն», - ասաց Բոգգուստը:

Մոդելի որոշման հիմքում ընկած պատճառաբանությունը կարևոր է ինչպես մեքենայական ուսուցման հետազոտողի, այնպես էլ որոշում կայացնողի համար:

Պրոգրեսի չափում

MIT-ի հետազոտողների աշխատանքը կարող է նշանակալից առաջընթաց լինել արհեստական ինտելեկտի առաջընթացի համար՝ դեպի մարդկային մակարդակի հետախուզություն, ասել է Բեն Հագագը՝ Darrow-ի հետազոտության ղեկավարը, մեքենայական ուսուցման ալգորիթմներ օգտագործող ընկերություն, Lifewire-ին տված հարցազրույցում ասել է..

«Մոդելի որոշման հիմքում ընկած պատճառաբանությունը կարևոր է ինչպես մեքենայական ուսուցման հետազոտողի, այնպես էլ որոշում կայացնողի համար», - ասաց Հագագը: «Առաջինը ցանկանում է հասկանալ, թե որքան լավն է մոդելը և ինչպես կարելի է այն կատարելագործել, մինչդեռ երկրորդը ցանկանում է մոդելի նկատմամբ վստահության զգացում զարգացնել, այնպես որ նրանք պետք է հասկանան, թե ինչու է այդ արդյունքը կանխատեսվել»::

Բայց Հագագը զգուշացրեց, որ MIT-ի հետազոտությունը հիմնված է այն ենթադրության վրա, որ մենք հասկանում ենք կամ կարող ենք նշել մարդկային ըմբռնումը կամ մարդկային բանականությունը:

«Սակայն հավանականություն կա, որ դա կարող է ճշգրիտ չլինել, ուստի անհրաժեշտ է ավելի շատ աշխատանք հասկանալ մարդկային որոշումների կայացումը», - ավելացրեց Հագագը:

Image
Image

AI-ի առաջընթացը կարող է արագացնել լեզուն հասկանալու համակարգիչների կարողության զարգացումը և հեղափոխել արհեստական ինտելեկտի և մարդկանց փոխազդեցության ձևը, ասաց Բուտիներսը: Chatbots-ը կարող է միաժամանակ հասկանալ հարյուրավոր լեզուներ, իսկ AI օգնականները կարող են սկանավորել տեքստի մասերը՝ հարցերի կամ անկանոնությունների պատասխանները գտնելու համար:

«Որոշ ալգորիթմներ կարող են նույնիսկ որոշել, թե երբ են հաղորդագրությունները խարդախ, ինչը կարող է օգնել բիզնեսին և սպառողներին վերացնել սպամ հաղորդագրությունները», - ավելացրեց Buteneers-ը:

Բայց, ասում է Բուտինեերսը, AI-ն դեռևս թույլ է տալիս որոշ սխալներ, որոնք մարդիկ երբեք չեն անի: «Չնայած ոմանք անհանգստանում են, որ արհեստական ինտելեկտը կփոխարինի մարդկանց աշխատատեղերին, իրականությունն այն է, որ մենք միշտ կարիք կունենանք մարդկանց, ովքեր աշխատում են արհեստական ինտելեկտի բոտերի կողքին, որպեսզի օգնեն նրանց զսպել և զերծ պահել այդ սխալները՝ միաժամանակ պահպանելով մարդկային կապը բիզնեսում», - ավելացրեց նա:

Խորհուրդ ենք տալիս: