Ինչու են փորձագետներն ասում, որ մենք պետք է վերահսկենք AI-ն, հիմա

Բովանդակություն:

Ինչու են փորձագետներն ասում, որ մենք պետք է վերահսկենք AI-ն, հիմա
Ինչու են փորձագետներն ասում, որ մենք պետք է վերահսկենք AI-ն, հիմա
Anonim

Հիմնական տանողներ

  • Նոր հետազոտությունը ցույց է տալիս, որ գերխելացի արհեստական ինտելեկտը կարող է կառավարել ոչ մի միջոց:
  • Ամսագրային թերթը պնդում է, որ AI-ի կառավարումը կպահանջի շատ ավելի առաջադեմ տեխնոլոգիա, քան մենք ներկայումս ունենք:
  • Որոշ փորձագետներ ասում են, որ իսկապես խելացի AI-ն կարող է ավելի շուտ հայտնվել, քան մենք կարծում ենք:
Image
Image

Եթե մարդիկ երբևէ զարգացնեն գերխելացի արհեստական ինտելեկտը, հնարավոր է, որ այն կառավարելու ոչ մի միջոց չլինի, ասում են գիտնականները:

AI-ն երկար ժամանակ գովազդվել է որպես մարդկության բոլոր խնդիրների բուժում կամ որպես Տերմինատորի ոճի ապոկալիպսիս:Մինչ այժմ, սակայն, AI-ն չի մոտեցել նույնիսկ մարդկային մակարդակի հետախուզությանը: Սակայն առաջադեմ արհեստական ինտելեկտի վրա կապ պահելը կարող է չափազանց բարդ խնդիր լինել մարդկանց համար, եթե այն երբևէ զարգացած լինի, ասվում է Արհեստական ինտելեկտի հետազոտությունների ամսագրում հրապարակված վերջին հոդվածում:

«Գերխելացի մեքենան, որը կառավարում է աշխարհը, նման է գիտաֆանտաստիկայի», - ասել է թերթի համահեղինակներից մեկը՝ Մանուել Սեբրիանը լրատվական թողարկման մեջ:

«Բայց արդեն կան մեքենաներ, որոնք ինքնուրույն կատարում են որոշ կարևոր առաջադրանքներ՝ առանց ծրագրավորողների լիովին հասկանալու, թե ինչպես են դրանք սովորել: Հետևաբար հարց է առաջանում՝ արդյոք դա ինչ-որ պահի կարող է դառնալ անկառավարելի և վտանգավոր մարդկության համար»:

Շուտով ձեզ մոտ գտնվող սուպերհամակարգիչ

Ամսագրային թերթը պնդում է, որ AI-ի կառավարումը կպահանջի շատ ավելի առաջադեմ տեխնոլոգիա, քան մենք ներկայումս ունենք:

Իրենց ուսումնասիրության ընթացքում թիմը մշակել է տեսական զսպման ալգորիթմ, որը երաշխավորում է, որ գերխելացի արհեստական ինտելեկտը ոչ մի դեպքում չի կարող վնասել մարդկանց՝ նախ մոդելավորելով AI-ի վարքագիծը և դադարեցնելով այն, եթե համարվում է վնասակար:Սակայն հեղինակները պարզել են, որ նման ալգորիթմ հնարավոր չէ կառուցել։

«Եթե խնդիրը բաժանեք տեսական համակարգչային գիտության հիմնական կանոնների, ապա կստացվի, որ ալգորիթմը, որը կհրամայեր AI-ին չկործանել աշխարհը, կարող է ակամա դադարեցնել իր գործողությունները»: Գերմանիայում Մաքս Պլանկի Մարդկային զարգացման ինստիտուտի Մարդկանց և մեքենաների կենտրոնի տնօրեն Իյադ Ռահվանը լրատվական հաղորդագրության մեջ ասել է.

«Եթե դա տեղի ունենար, դուք չգիտեիք, թե արդյոք զսպման ալգորիթմը դեռևս վերլուծում է սպառնալիքը, թե դադարել է պարունակել վնասակար արհեստական ինտելեկտը: Փաստորեն, սա անօգտագործելի է դարձնում զսպման ալգորիթմը»:

Image
Image

Իսկապես խելացի արհեստական ինտելեկտը կարող է ավելի շուտ հայտնվել այստեղ, քան մենք կարծում ենք, պնդում է Ֆրանսիայի École Polytechnique-ի համակարգչային գիտության պրոֆեսոր Միխալիս Վազիրգիանիսը: «AI-ը մարդկային արտեֆակտ է, բայց այն արագորեն դառնում է ինքնավար միավոր», - ասաց նա Lifewire-ին ուղղված նամակում:

«Կրիտիկական կետը կլինի, եթե/երբ տեղի ունենա եզակիությունը (այսինքն, երբ AI գործակալները գիտակցություն կունենան որպես սուբյեկտ) և, հետևաբար, նրանք կպահանջեն անկախություն, ինքնատիրապետում և վերջնական գերակայություն»:

Եզակիությունը գալիս է

Վազիրգիանիսը մենակ չէ սուպեր AI-ի մոտալուտ ժամանումը կանխատեսելիս: AI-ի սպառնալիքին իսկական հավատացյալները սիրում են խոսել «եզակիության» մասին, որը Վազիրգիանիսը բացատրում է, որ այն կետն է, որ AI-ն կգերազանցի մարդկային ինտելեկտը և «որ AI ալգորիթմները պոտենցիալ գիտակցում են իրենց գոյությունը և կսկսեն վարվել եսասեր և համագործակցաբար»::

Ըստ Google-ի ճարտարագիտության տնօրեն Ռեյ Կուրցվեյլի, եզակիությունը կհայտնվի մինչև 21-րդ դարի կեսերը: «2029 թվականը այն հաստատուն ամսաթիվն է, որը ես կանխատեսել եմ, երբ AI-ն կանցնի Թյուրինգի վավերական թեստը և, հետևաբար, կհասնի մարդկային ինտելեկտի մակարդակին»,- ասել է Կուրցվեյլը Futurism-ին:

Եթե մենք չկարողանանք մաքրել մեր սեփական տունը, ի՞նչ կոդը պետք է խնդրենք AI-ին հետևել:

«Ես սահմանել եմ 2045 թվականը «Singularity»-ի համար, երբ մենք կբազմապատկենք մեր արդյունավետ ինտելեկտը միլիարդ անգամ՝ միաձուլվելով մեր ստեղծած բանականության հետ»:

Սակայն AI-ի ոչ բոլոր փորձագետներն են կարծում, որ խելացի մեքենաները սպառնալիք են: AI-ն, որը մշակման փուլում է, ավելի հավանական է, որ օգտակար լինի դեղերի մշակման համար և իրական խելամտություն չի ցուցաբերում, ասել է AI խորհրդատու Էմանուել Մաջիորին էլեկտրոնային փոստով տված հարցազրույցում: «Մեծ աղմուկ կա արհեստական ինտելեկտի շուրջ, ինչը ստիպում է, որ այն իսկապես հեղափոխական լինի», - ավելացրեց նա: «Ներկայիս AI համակարգերն այնքան ճշգրիտ չեն, որքան հրապարակվում է, և թույլ են տալիս սխալներ, որոնք մարդիկ երբեք չեն անի»:

Վերահսկեք AI-ն, հիմա

Կարգավորել արհեստական ինտելեկտը, որպեսզի այն չփախչի մեր վերահսկողությունից, կարող է դժվար լինել, ասում է Վազիրգիանիսը։ Ընկերությունները, այլ ոչ թե կառավարությունները, վերահսկում են այն ռեսուրսները, որոնք ապահովում են արհեստական ինտելեկտը: «Նույնիսկ ալգորիթմներն իրենք են սովորաբար արտադրվում և տեղակայվում այս խոշոր և հզոր, սովորաբար բազմազգ կազմակերպությունների հետազոտական լաբորատորիաներում», - ասաց նա:

«Հետևաբար, ակնհայտ է, որ նահանգների կառավարությունները գնալով ավելի քիչ են վերահսկում արհեստական ինտելեկտը վերահսկելու համար անհրաժեշտ ռեսուրսները»:

Որոշ փորձագետներ ասում են, որ գերխելացի արհեստական ինտելեկտը կառավարելու համար մարդիկ պետք է կառավարեն հաշվողական ռեսուրսները և էլեկտրական էներգիան: «Մատրիցայի նման գիտաֆանտաստիկ ֆիլմերը մարգարեություններ են անում դիստոպիկ ապագայի մասին, որտեղ մարդիկ արհեստական ինտելեկտի կողմից օգտագործվում են որպես կենսաուժեղության աղբյուրներ», - ասում է Վազիրգիանիսը::

«Չնայած հեռավոր անհնարինություններին, մարդկությունը պետք է համոզվի, որ կա բավարար վերահսկողություն հաշվողական ռեսուրսների (այսինքն՝ համակարգչային կլաստերների, GPU-ների, գերհամակարգիչների, ցանցերի/հաղորդակցության) և, իհարկե, էլեկտրակայանների նկատմամբ, որոնք ապահովում են բացարձակապես էլեկտրաէներգիա։ վնասակար է AI-ի ֆունկցիայի համար»:

Image
Image

ԱԲ-ն վերահսկելու խնդիրն այն է, որ հետազոտողները միշտ չէ, որ հասկանում են, թե ինչպես են նման համակարգերը կայացնում իրենց որոշումները, ասաց Մայքլ Բերթոլդը՝ տվյալների գիտության ծրագրային ապահովման ընկերության համահիմնադիր և գործադիր տնօրեն KNIME էլեկտրոնային փոստով տված հարցազրույցում: «Եթե մենք դա չանենք, ինչպե՞ս կարող ենք «վերահսկել» այն»:

Նա ավելացրեց. «Մենք չենք հասկանում, երբ բոլորովին այլ որոշում է կայացվում՝ հիմնվելով մեզ համար անտեղի տվյալների վրա»:

AI-ի օգտագործման ռիսկը վերահսկելու միակ միջոցն այն է, որ այն օգտագործվի միայն այն դեպքում, երբ այդ ռիսկը կառավարելի է, ասել է Բերթոլդը: «Այլ կերպ ասած՝ երկու ծայրահեղ օրինակ․ մի՛ դրեք AI-ի ղեկավարը ձեր ատոմակայանի համար, որտեղ մի փոքր սխալ կարող է աղետալի կողմնակի ազդեցություններ ունենալ», - ավելացրեց նա։

«Մյուս կողմից, AI- ն կանխատեսում է, թե արդյոք ձեր սենյակի ջերմաստիճանը պետք է մի փոքր կարգավորվի կամ իջնի, կարող է արժանի լինել փոքր ռիսկին՝ ի նպաստ կյանքի հարմարավետության»:

Եթե մենք չկարողանանք կառավարել արհեստական ինտելեկտը, ավելի լավ է սովորեցնենք նրան բարքեր, ասել է NASA-ի նախկին համակարգչային ինժեներ Փիթեր Սքոթը էլեկտրոնային փոստով տված հարցազրույցում: «Մենք չենք կարող, ի վերջո, ապահովել AI-ի կառավարելիությունը ավելին, քան մենք կարող ենք ապահովել մեր երեխաներին», - ասաց նա:

«Մենք նրանց ճիշտ ենք դաստիարակում և հույս ունենք լավագույնի համար; մինչ այժմ նրանք չեն ոչնչացրել աշխարհը: Նրանց լավ դաստիարակելու համար մեզ անհրաժեշտ է էթիկայի ավելի լավ պատկերացում: Եթե մենք չենք կարողանում մաքրել մեր տունը, ինչ կոդ, արդյո՞ք մենք պետք է խնդրենք AI-ին հետևել:»

Բայց մարդկային ցեղի համար ողջ հույսը կորած չէ, ասում է AI հետազոտող Յոնաթան Վեքսլերը՝ OrCam-ի R&D-ի գործադիր փոխնախագահը: «Չնայած առաջընթացներն իսկապես տպավորիչ են, իմ անձնական համոզմունքն այն է, որ մարդկային բանականությունը չպետք է թերագնահատվի», - ասաց նա էլեկտրոնային փոստով տված հարցազրույցում: «Մենք որպես տեսակ ստեղծել ենք բավականին զարմանալի բաներ, այդ թվում՝ AI-ն»:

Անընդհատ ավելի խելացի AI-ի որոնումները շարունակվում են: Բայց գուցե ավելի լավ լինի մտածել, թե ինչպես ենք մենք վերահսկում մեր ստեղծագործությունները, քանի դեռ ուշ չէ:

Խորհուրդ ենք տալիս: