Ինչպես AI-ն կարող է հետևել իր վտանգավոր սերունդներին

Բովանդակություն:

Ինչպես AI-ն կարող է հետևել իր վտանգավոր սերունդներին
Ինչպես AI-ն կարող է հետևել իր վտանգավոր սերունդներին
Anonim

Հիմնական տանողներ

  • Նոր փաստաթուղթը պնդում է, որ արհեստական ինտելեկտը կարող է որոշել, թե որ հետազոտական նախագծերը կարող են ավելի շատ կարգավորման կարիք ունենալ, քան մյուսները:
  • Դա աճող ջանքերի մի մասն է՝ բացահայտելու, թե ինչպիսի AI-ն կարող է վտանգավոր լինել:
  • Մի փորձագետ ասում է, որ AI-ի իրական վտանգը կայանում է նրանում, որ այն կարող է հիմարացնել մարդկանց:

Image
Image

Արհեստական ինտելեկտը (AI) առաջարկում է բազմաթիվ առավելություններ, բայց նաև որոշ պոտենցիալ վտանգներ: Եվ հիմա, հետազոտողները առաջարկել են իրենց համակարգչային ստեղծագործություններին աչք պահելու մեթոդ:

Միջազգային թիմը նոր աշխատության մեջ ասում է, որ AI-ն կարող է որոշել, թե որ տեսակի հետազոտական նախագծերը կարող են ավելի շատ կարգավորման կարիք ունենալ, քան մյուսները: Գիտնականներն օգտագործել են մի մոդել, որը միախառնում է կենսաբանության և մաթեմատիկայի հասկացությունները և հանդիսանում է աճող ջանքերի մի մասը՝ պարզելու, թե ինչպիսի AI-ն կարող է վտանգավոր լինել:

«Իհարկե, չնայած AI-ի «գիտաֆանտաստիկ» վտանգավոր օգտագործումը կարող է առաջանալ, եթե մենք այդպես որոշենք […], այն, ինչ AI-ն վտանգավոր է դարձնում ոչ թե ինքնին AI-ն, այլ [ինչպես ենք մենք այն օգտագործում]», - Թիերի Ռեյնա: «Փոփոխությունների տեխնոլոգիայի» ամբիոնը Ֆրանսիայի École Polytechnique-ում Lifewire-ին տված հարցազրույցում ասել է. «AI-ի ներդրումը կարող է լինել կամ կատարելագործել (օրինակ՝ այն ամրապնդել մարդու/աշխատողի հմտությունների և գիտելիքների համապատասխանությունը) կամ կարողությունների ոչնչացում, այսինքն՝ AI-ն դարձնում է առկա հմտություններն ու գիտելիքները պակաս օգտակար կամ հնացած»::

Ներդիրների պահպանում

Վերջին թերթի հեղինակները գրառման մեջ գրել են, որ իրենք մոդել են ստեղծել՝ արհեստական ինտելեկտի հիպոթետիկ մրցումները մոդելավորելու համար: Նրանք հարյուրավոր անգամներ վարեցին սիմուլյացիա՝ փորձելով գուշակել, թե ինչպես կարող են աշխատել իրական աշխարհի AI մրցավազքերը:

«Փոփոխականը, որը մենք գտանք, որ հատկապես կարևոր է, մրցավազքի «երկարությունն» էր՝ այն ժամանակը, որը պահանջվեց մեր մոդելավորված մրցավազքներին հասնելու իրենց նպատակին (ֆունկցիոնալ արհեստական ինտելեկտի արտադրանք», - գրել են գիտնականները: «Երբ AI մրցարշավներն արագ հասան իրենց նպատակին, մենք պարզեցինք, որ այն մրցակիցները, որոնց մենք կոդավորել էինք, որ միշտ անտեսեն անվտանգության նախազգուշական միջոցները, միշտ հաղթում էին»:

Ընդհակառակը, հետազոտողները պարզել են, որ երկարաժամկետ արհեստական ինտելեկտի նախագծերն այնքան էլ վտանգավոր չեն, քանի որ միշտ չէ, որ հաղթողներն այն մարդիկ են, ովքեր անտեսում են անվտանգությունը: «Հաշվի առնելով այս բացահայտումները, կարգավորող մարմինների համար կարևոր կլինի պարզել, թե որքան երկար կարող են տևել արհեստական ինտելեկտի տարբեր մրցավազքները՝ կիրառելով տարբեր կանոնակարգեր՝ ելնելով իրենց սպասվող ժամանակացույցից», - գրել են նրանք: «Մեր բացահայտումները հուշում են, որ արհեստական ինտելեկտի բոլոր մրցավազքերի մեկ կանոնը՝ սպրինտից մինչև մարաթոն, կհանգեցնի որոշ արդյունքների, որոնք հեռու են իդեալական լինելուց»:

Coda Strategy ընկերության կառավարիչ տնօրեն Դեյվիդ Չժաոն, որը խորհրդակցում է AI-ի վերաբերյալ, Lifewire-ին տված էլ. Մարտահրավերները կայանում են նրանում, որ AI-ի ժամանակակից մոտեցումները խորը ուսուցման մոտեցում ունեն:

«Մենք գիտենք, որ խորը ուսուցումն ավելի լավ արդյունքներ է տալիս օգտագործման բազմաթիվ դեպքերում, ինչպիսիք են պատկերի հայտնաբերումը կամ խոսքի ճանաչումը», - ասաց Չժաոն: «Այնուամենայնիվ, մարդկանց համար անհնար է հասկանալ, թե ինչպես է աշխատում խորը ուսուցման ալգորիթմը և ինչպես է այն արտադրում իր արդյունքը: Հետևաբար, դժվար է ասել, թե արդյոք լավ արդյունքներ տվող AI-ն վտանգավոր է, քանի որ մարդկանց համար անհնար է հասկանալ, թե ինչ է կատարվում: «

Ծրագիրը կարող է «վտանգավոր» լինել, երբ օգտագործվում է կրիտիկական համակարգերում, որոնք ունեն խոցելիություններ, որոնք կարող են շահագործվել վատ դերակատարների կողմից կամ բերել սխալ արդյունքների, էլ. Նա հավելեց, որ ոչ անվտանգ AI-ն կարող է նաև հանգեցնել արդյունքների ոչ պատշաճ դասակարգման, տվյալների կորստի, տնտեսական ազդեցության կամ ֆիզիկական վնասի:

«Ավանդական ծրագրաշարի միջոցով մշակողները կոդավորում են ալգորիթմներ, որոնք կարող են ուսումնասիրվել անձի կողմից՝ պարզելու, թե ինչպես միացնել խոցելիությունը կամ շտկել սխալը՝ նայելով սկզբնական կոդը», - ասաց Շեյը:«Սակայն արհեստական ինտելեկտի դեպքում տրամաբանության մեծ մասը ստեղծվում է հենց տվյալներից՝ կոդավորված տվյալների կառուցվածքներում, ինչպիսիք են նեյրոնային ցանցերը և այլն: Սա հանգեցնում է համակարգերի, որոնք «սև արկղեր» են, որոնք չեն կարող ուսումնասիրվել՝ գտնելու և շտկելու խոցելիությունը: ինչպես սովորական ծրագրաշարը։"

Առջևում վտանգներ?

Մինչ AI-ն ներկայացվել է «Տերմինատոր»-ի նման ֆիլմերում որպես չար ուժ, որը մտադիր է ոչնչացնել մարդկությանը, իրական վտանգները կարող են ավելի պրոզայիկ լինել, ասում են փորձագետները: Ռայնան, օրինակ, առաջարկում է, որ AI-ն կարող է մեզ ավելի հիմար դարձնել:

«Դա կարող է մարդկանց զրկել իրենց ուղեղը մարզելուց և փորձագիտությունը զարգացնելուց», - ասաց նա: «Ինչպե՞ս կարող եք դառնալ վենչուրային կապիտալի փորձագետ, եթե ձեր ժամանակի մեծ մասը չեք ծախսում ստարտափների հավելվածները կարդալու վրա: Ավելի վատ, AI-ն հայտնիորեն «սև արկղ» է և քիչ բացատրելի: Չիմանալը, թե ինչու է ընդունվել AI-ի որոշակի որոշումը, նշանակում է, որ դրանից սովորելու շատ քիչ բան կլինի, ճիշտ այնպես, ինչպես դուք չեք կարող դառնալ փորձագետ վազորդ՝ շրջելով մարզադաշտում Segway-ով:«

Դժվար է ասել, թե արդյոք AI-ն, որը լավ արդյունքներ է տալիս, վտանգավոր է, քանի որ մարդկանց համար անհնար է հասկանալ, թե ինչ է կատարվում:

Հնարավոր է, որ AI-ի ամենաանմիջական սպառնալիքը այն հավանականությունն է, որ այն կարող է ապահովել կողմնակալ արդյունքներ, ասաց Լայլ Սոլոմոնը, իրավաբան, ով գրում է AI-ի իրավական հետևանքների մասին, էլփոստի հարցազրույցում:

«AI-ն կարող է օգնել խորացնել հասարակության պառակտումները: AI-ն, ըստ էության, կառուցված է մարդկանցից հավաքագրված տվյալների հիման վրա», - ավելացրեց Սողոմոնը: «[Բայց], չնայած հսկայական տվյալներին, այն պարունակում է նվազագույն ենթաբազմություններ և չի ներառում այն, ինչ մտածում են բոլորը: Այսպիսով, մեկնաբանություններից, հանրային հաղորդագրություններից, ակնարկներից և այլն հավաքագրված տվյալները, որոնք բնորոշ կողմնակալություններ ունեն, կստիպի AI-ն ուժեղացնել խտրականությունն ու ատելությունը»:

Խորհուրդ ենք տալիս: