Ինչպես AI-ն կարող է շուտով օգնել հաքերներին գողանալ ձեր տեղեկատվությունը

Բովանդակություն:

Ինչպես AI-ն կարող է շուտով օգնել հաքերներին գողանալ ձեր տեղեկատվությունը
Ինչպես AI-ն կարող է շուտով օգնել հաքերներին գողանալ ձեր տեղեկատվությունը
Anonim

Հիմնական տանողներ

  • Փորձագետներն ասում են, որ AI-ի օգնությամբ կիբերհարձակումները կարող են կոտրել ձեր տվյալները:
  • Կիբերանվտանգության հայտնի փորձագետ Բրյուս Շնայերը վերջերս կայացած համաժողովի ժամանակ ասաց, որ իրեն ավելի ու ավելի է անհանգստացնում համակարգչային համակարգեր AI-ի ներթափանցումը:
  • Մեկ AI-ի վրա հիմնված կիբերհարձակում իրականացվեց TaskRabbit-ի դեմ 2018 թվականին, որը վտանգի ենթարկեց 3,75 միլիոն օգտատեր:
Image
Image

Հաքերները շուտով կարող են խորանալ ձեր համակարգչի մեջ՝ օգտագործելով արհեստական ինտելեկտ:

Կիբերանվտանգության հայտնի փորձագետ Բրյուս Շնայերը վերջերս համաժողովի ժամանակ ասաց, որ ինքը մտահոգված է, որ AI-ի ներթափանցումը համակարգչային համակարգեր անխուսափելի է: Փորձագետներն ասում են, որ AI հարձակումները աճող սպառնալիք են։

«Հակերի տեսանկյունից AI-ն գնալով ավելի օգտակար է դառնում, օգտատերերի և սպառողների տվյալները կարող են զգալիորեն ավելի մեծ վտանգի ենթարկվել», - էլփոստի հարցազրույցում ասաց Deloitte Risk & Financial Advisory-ի կիբերանվտանգության փորձագետ Էնդրյու Դուգլասը: «Հակերները սովորաբար փնտրում են ամենահեշտ թիրախը՝ նվազագույն ջանք գործադրելով, և AI-ն թույլ կտա նրանց ավելի քիչ ժամանակում թիրախավորել ավելի լավ պաշտպանություններ ունեցող մարդկանց»:

Շնայերը վերջինն էր, ով ահազանգեց արհեստական ինտելեկտի վտանգների մասին: «Ցանկացած լավ արհեստական ինտելեկտի համակարգ, բնականաբար, հաքերներ կգտնի», - հաղորդվում է Շնայերը վերջերս կայացած համաժողովում: «Նրանք նոր լուծումներ են գտնում, քանի որ չունեն մարդկային ենթատեքստ, և հետևանքն այն է, որ այդ լուծումներից ոմանք կխախտեն մարդկանց սպասելիքները, հետևաբար՝ հաքեր»:

AI հեռախոսներ ձեր տանը

Հաքերներն արդեն օգտագործում են արհեստական ինտելեկտը՝ համակարգիչների մեջ ներխուժելու համար: AI-ի վրա հիմնված մեկ կիբերհարձակում գործարկվել է TaskRabbit-ի դեմ 2018 թվականին՝ վտանգի ենթարկելով 3-ը:Pixel Privacy կայքի սպառողների գաղտնիության պաշտպան Քրիս Հաուկը, 75 միլիոն օգտատերերի, բայց անհետագնաց լինելով, էլփոստի հարցազրույցում ասել է.

«Հարձակումն իրականացվել է հաքերների կողմից՝ օգտագործելով AI-ի կողմից վերահսկվող մեծ բոտնետ, որն օգտագործում էր ստրկացված մեքենաներ՝ TaskRabbit-ի սերվերների վրա զանգվածային DDoS հարձակում իրականացնելու համար», - ավելացրեց նա:

Մեքենայական ուսուցման ալգորիթմներն օգտագործվել են Defcon-ի համակարգեր հաջողությամբ ներթափանցելու համար դեռևս 2016 թվականին, նշել է ProPrivacy-ի տվյալների գաղտնիության փորձագետ Ռեյ Ուոլշը էլեկտրոնային փոստով տված հարցազրույցում: Այն ժամանակ յոթ թիմեր պայքարում էին DARPA-ի Grand Challenge-ի համար՝ 2 միլիոն դոլար մրցանակ շահելու համար: «Մարտահրավերի ընթացքում մրցակիցները AI-ն օգտագործել են խոցելիություններ գտնելու, շահագործումներ ստեղծելու և ավտոմատացված միջոցների միջոցով տեղակայելու համար», - ավելացրեց նա:

Բրյուս Յանգը, Հարիսբուրգի գիտության և տեխնոլոգիայի համալսարանի կիբերանվտանգության պրոֆեսորը, էլփոստի հետ հարցազրույցում ասել է, որ AI-ն օգտագործվում է բոտնետները կառավարելու համար՝ վատ դերասանի հսկողության տակ գտնվող վտանգված համակարգիչների խումբ, որն օգտագործվում է ուրիշների վրա հարձակվելու համար։ համակարգիչներ.

«AI-ն կարող է օգտագործվել անձի տեղեկությունները ավտոմատ կերպով հավաքելու համար, օրինակ՝ բանկ, բժշկական, վարորդական իրավունք, ծննդյան օրեր», - ասաց նա: «Նրանք կարող են ձևակերպել ֆիշինգի բարդ փորձ և օգտատիրոջը ուղարկել օրինական թվացող էլ.փոստ»:

AI-ն կարող է օգտագործվել կոտրելու համար՝ հայտնաբերելով խոցելի տեղեր և դրանք շահագործելով, ասել է Comparitech կայքի գաղտնիության պաշտպան Փոլ Բիշոֆը էլեկտրոնային փոստի հարցազրույցում:

AI-ն և մեքենայական ուսուցումը կարող են նկատել այնպիսի օրինաչափություններ, որոնք մարդիկ բաց կթողնեն: Այս օրինաչափությունները կարող են բացահայտել թույլ կողմերը… AI-ն կարող է այնուհետև օգտագործել այդ խոցելիությունները…

«AI-ն և մեքենայական ուսուցումը կարող են նկատել այնպիսի օրինաչափություններ, որոնք մարդիկ բաց կթողնեն», - ավելացրեց նա: «Այս օրինաչափությունները կարող են բացահայտել թիրախի կիբերանվտանգության կամ գործառնական անվտանգության թույլ կողմերը: AI-ն այնուհետև կարող է օգտագործել այդ խոցելիությունները շատ ավելի արագ, քան մարդը, բայց նաև ավելի ճկուն, քան ավանդական բոտը»::

AI-ն կարող է փոխել և բարելավել իր հարձակումները առանց մարդկային ներդրման, ասել է Բիշոֆը:

«AI-ը հատկապես հարմար է թաքցնելու համար և կարող է թաքնվել համակարգում, որտեղ այն հավաքում է տվյալներ կամ հարձակումներ է իրականացնում երկար ժամանակ», - ավելացրեց նա:

Պաշտպանեք ձեզ AI-ից

Ցավոք, չկա որևէ կոնկրետ բան, որ օգտատերերը կարող են անել արհեստական ինտելեկտի վրա հիմնված հաքերից պաշտպանվելու համար, ասաց Բիշոֆը:

«Պարզապես հետևեք սովորական ուղեցույցներին», - ասաց նա: «Նվազագույնի հասցրեք ձեր թվային հետքը, թարմացրեք ձեր ծրագրակազմը, օգտագործեք հակավիրուսներ, օգտագործեք firewall, միայն հեղինակավոր ծրագրեր ներբեռնեք հեղինակավոր աղբյուրներից, մի սեղմեք հղումների կամ հավելվածների վրա չպահանջված հաղորդագրություններում»:

Սակայն, պատրաստվեք ավելի շատ AI-ով առաջնորդվող հարձակումների համար:

Image
Image

«AI-ն օգտագործվում է ինչպես կիբերանվտանգության, այնպես էլ կիբերհարձակումների համար, և ապագայում մենք կարող ենք տեսնել AI համակարգեր, որոնք հարձակվում են միմյանց վրա», - ասաց Բիշոֆը: «Օրինակ, AI-ն կարող է օգտագործվել ոչ մարդկային վարքագիծը բացահայտելու և բոտերի դեմ գործողություններ ձեռնարկելու համար:Ընդհակառակը, AI-ն կարող է օգտագործվել բոտերի կողմից՝ ավելի ճշգրիտ կերպով ընդօրինակելու մարդու վարքագիծը և շրջանցելու բոտերի հայտնաբերման համակարգերը»:

Պետության կողմից հովանավորվող խմբերը ապագայում կլինեն արհեստական ինտելեկտի հաքերների հավանական աղբյուր, ասել է Mimoto կիբերանվտանգության ընկերության գործադիր տնօրեն Քրիս Բոնդին էլեկտրոնային փոստով տված հարցազրույցում:

«Այս կատեգորիան արդեն իսկ խթանում է խախտումների աճը, որոնք գնալով ավելի բարդ են», - ավելացրեց Բոնդին: «Եթե AI-ն արդյունավետորեն օգտագործվի հաքերային հարձակման համար, ապա դա, ամենայն հավանականությամբ, կնշանակի ավելի շատ խախտման փորձեր, որոնք էլ ավելի բարդ են: Սա ազդեցություն ունի անհատների, ենթակառուցվածքների, կորպորատիվ լրտեսության և ազգային անվտանգության վրա»::

Խորհուրդ ենք տալիս: