Ինչու մեզ պետք է AI, որն ինքն իրեն բացատրում է

Բովանդակություն:

Ինչու մեզ պետք է AI, որն ինքն իրեն բացատրում է
Ինչու մեզ պետք է AI, որն ինքն իրեն բացատրում է
Anonim

Հիմնական տանողներ

  • Ընկերություններն ավելի ու ավելի են օգտագործում AI, որը բացատրում է, թե ինչպես է այն ստանում արդյունքները:
  • LinkedIn-ը վերջերս ավելացրել է իր բաժանորդագրության եկամուտը՝ արհեստական արհեստական ինտելեկտ օգտագործելուց հետո, որը կանխատեսում էր չեղարկման վտանգի տակ գտնվող հաճախորդներին և նկարագրում էր, թե ինչպես է այն եկել իր եզրակացություններին:
  • Առևտրի դաշնային հանձնաժողովը հայտարարել է, որ AI-ն, որը բացատրելի չէ, կարող է հետաքննվել:
Image
Image

Ծրագրային ապահովման ամենաթեժ նոր միտումներից մեկը կարող է լինել արհեստական ինտելեկտը (AI), որը բացատրում է, թե ինչպես է այն իրագործում իր արդյունքները:

Բացատրելի AI-ն արդյունք է տալիս, քանի որ ծրագրային ապահովման ընկերությունները փորձում են AI-ն ավելի հասկանալի դարձնել: LinkedIn-ը վերջերս ավելացրել է իր բաժանորդագրության եկամուտը՝ արհեստական արհեստական ինտելեկտ օգտագործելուց հետո, որը կանխատեսում էր չեղարկման վտանգի տակ գտնվող հաճախորդներին և նկարագրում էր, թե ինչպես է այն եկել իր եզրակացություններին:

«Բացատրելի AI-ն այն է, որ կարողանանք վստահել արդյունքին, ինչպես նաև հասկանալ, թե ինչպես է մեքենան հասել այնտեղ»,- Lifewire-ին տված հարցազրույցում ասել է Թրևիս Նիքսոնը՝ SynerAI-ի գործադիր տնօրենը և Microsoft-ի ֆինանսական ծառայությունների գլխավոր տվյալների գիտությունը:.

'Ինչպես?' Հարց է դրվում արհեստական ինտելեկտի բազմաթիվ համակարգերի համար, հատկապես, երբ որոշումներ են կայացվում կամ արդյունք են տալիս, որոնք իդեալական չեն», - ավելացրել է Նիքսոնը: «Տարբեր ռասաների անարդարացի վերաբերմունքից մինչև ճաղատ գլուխը ֆուտբոլի հետ շփոթելը, մենք պետք է իմանանք, թե ինչու են արհեստական ինտելեկտի համակարգերը տալիս իրենց արդյունքները: Երբ մենք հասկանանք «ինչպես», այն ընկերություններին և անհատներին դնում է պատասխանելու «Ի՞նչ հետո»:

Ծանոթանալ AI

AI-ն ապացուցել է ճշգրիտ և կատարում է բազմաթիվ տեսակի կանխատեսումներ: Սակայն AI-ն հաճախ կարողանում է բացատրել, թե ինչպես է հանգել իր եզրակացություններին:

Եվ կարգավորիչները ուշադրություն են դարձնում AI-ի բացատրելիության խնդրին: Առևտրի դաշնային հանձնաժողովը հայտարարել է, որ AI-ն, որը բացատրելի չէ, կարող է հետաքննվել: ԵՄ-ն քննարկում է Արհեստական ինտելեկտի մասին օրենքի ընդունումը, որը ներառում է պահանջներ, որոնք օգտատերերը կարող են մեկնաբանել արհեստական ինտելեկտի կանխատեսումները։

Linkedin-ն այն ընկերություններից է, որոնք կարծում են, որ բացատրելի AI-ն կարող է օգնել բարձրացնել շահույթը: Նախկինում LinkedIn-ի վաճառողներն ապավինում էին իրենց գիտելիքներին և հսկայական ժամանակ էին ծախսում անցանց տվյալների վրա մաղելով՝ պարզելու, թե որ հաշիվները կարող են շարունակել իրենց բիզնեսը և ինչ ապրանքներով կարող են հետաքրքրվել հաջորդ պայմանագրի երկարաձգման ժամանակ: Խնդիրը լուծելու համար LinkedIn-ը սկսեց CrystalCandle անունով ծրագիր, որը նկատում է միտումները և օգնում վաճառողներին:

Մեկ այլ օրինակում Նիքսոնն ասաց, որ ընկերության վաճառքի ուժի համար քվոտաների սահմանման մոդելի ստեղծման ժամանակ իր ընկերությունը կարողացել է ներառել բացատրելի արհեստական ինտելեկտ՝ պարզելու համար, թե ինչ հատկանիշներ են ցույց տալիս հաջողակ վաճառքի նոր վարձույթը:

«Այս արդյունքով այս ընկերության ղեկավարությունը կարողացավ հասկանալ, թե որ վաճառողներին պետք է դասավորել «արագ ուղու» վրա, և որոնք կարիք ունեն մարզչական աշխատանքի՝ նախքան որևէ լուրջ խնդիր առաջանալը», - ավելացրեց նա:

Բացատրելի AI-ի շատ օգտագործում

Բացատրելի AI-ն ներկայումս օգտագործվում է որպես աղիքների ստուգում տվյալների գիտնականների մեծ մասի համար, ասաց Նիքսոնը: Հետազոտողները վարում են իրենց մոդելը պարզ մեթոդների միջոցով, համոզվում, որ ոչ մի բան ամբողջովին անսարք չէ, այնուհետև ուղարկում են մոդելը:

«Դա մասամբ այն պատճառով է, որ տվյալների գիտության շատ կազմակերպություններ օպտիմիզացրել են իրենց համակարգերը «ժամանակի ավելի արժեքի» շուրջ՝ որպես KPI, ինչը հանգեցնում է արագացված գործընթացների և թերի մոդելների», - ավելացրել է Նիքսոնը::

Ես անհանգստանում եմ, որ անպատասխանատու մոդելների արձագանքը կարող է լուրջ ետ բերել AI արդյունաբերությունը:

Մարդիկ հաճախ չեն համոզվում արդյունքներով, որոնք AI-ն չի կարող բացատրել: Cogito-ի գլխավոր ինժեներական տնօրեն Ռաջ Գուպտան էլ-նամակում ասաց, որ իր ընկերությունը հարցումներ է անցկացրել հաճախորդների հետ և պարզել, որ սպառողների գրեթե կեսը (43%) ավելի դրական կընկալեր ընկերության և արհեստական ինտելեկտի մասին, եթե ընկերությունները ավելի հստակ լինեին դրանց օգտագործման վերաբերյալ: տեխնոլոգիայի։

Եվ ոչ միայն ֆինանսական տվյալներն են օգնում բացատրելի AI-ից: Նոր մոտեցումից օգուտ քաղող ոլորտը պատկերի տվյալներն են, որտեղ հեշտ է ցույց տալ, թե պատկերի որ մասերն են, ըստ ալգորիթմի, կարևոր, և որտեղ մարդու համար հեշտ է իմանալ, թե արդյոք այդ տեղեկատվությունը իմաստ ունի, Սամանտա Քլեյնբերգ, Սթիվենսի դոցենտ։ Տեխնոլոգիական ինստիտուտը և բացատրելի արհեստական ինտելեկտի փորձագետը Lifewire-ին հայտնել են էլ.փոստի միջոցով:

«Շատ ավելի դժվար է դա անել ԷԿԳ-ի կամ անընդհատ գլյուկոզայի մոնիտորինգի տվյալների միջոցով», - ավելացրեց Քլայնբերգը:

Նիքսոնը կանխատեսեց, որ բացատրելի AI-ն ապագայում յուրաքանչյուր AI համակարգի հիմքը կլինի: Եվ առանց բացատրելի AI-ի, արդյունքները կարող են սարսափելի լինել, ասաց նա:

«Հուսով եմ, որ մենք բավականաչափ առաջադիմություն կունենանք այս ճակատում, որպեսզի տարիներ անց բացատրելի AI-ն ընկալենք, և որ մենք այսօր հետ ենք նայում այն ժամանակներին՝ զարմանալով, որ ինչ-որ մեկը բավական խենթ կլինի, որ տեղակայի այնպիսի մոդելներ, որոնք իրենք չեն հասկանում:, նա ավելացրեց.«Եթե մենք այսպես չդիմավորենք ապագային, ես անհանգստացած եմ, որ անպատասխանատու մոդելների արձագանքը կարող է լուրջ ճանապարհով հետ բերել AI արդյունաբերությունը»:

Խորհուրդ ենք տալիս: