Susisiekti su mumis

Minties lyderiai

Kibernetinio saugumo ateitis: AI, automatizavimas ir žmogiškasis faktorius

Per pastarąjį dešimtmetį, kartu su sparčiu informacinių technologijų augimu, tamsi kibernetinio saugumo grėsmių realybė taip pat smarkiai išsivystė. Kibernetinės atakos, kurias kažkada pirmiausia lėmė išdykę įsilaužėliai, siekiantys žinomumo ar finansinės naudos, tapo kur kas sudėtingesnės ir tikslesnės. Nuo valstybės remiamo šnipinėjimo iki įmonių ir tapatybės vagystės – elektroninių nusikaltimų motyvai tampa vis grėsmingesni ir pavojingesni. Nors piniginis pelnas išlieka svarbia elektroninių nusikaltimų priežastimi, ją užgožia niekšiškesni tikslai pavogti svarbius duomenis ir turtą. Kibernetiniai užpuolikai plačiai naudoja pažangiausias technologijas, įskaitant dirbtinį intelektą, kad įsiskverbtų į sistemas ir vykdytų kenkėjišką veiklą. JAV Federalinis tyrimų biuras (FTB) pranešė Biuro Interneto nusikaltimų skundų centro duomenimis, 800,000 m. buvo pateikta daugiau nei 2022 10 su elektroniniais nusikaltimais susijusių skundų, kurių bendri nuostoliai viršijo 2021 milijardų JAV dolerių, o 6.9 m.

Sparčiai besivystant grėsmių aplinkai, laikas organizacijoms taikyti daugialypį požiūrį į kibernetinį saugumą. Turėtų būti atsižvelgiama į tai, kaip užpuolikai patenka į šalį; užkirsti kelią pradiniam kompromisui; greitai aptikti įsibrovimus; ir įgalinti greitą reagavimą bei ištaisymą. Norint apsaugoti skaitmeninį turtą, reikia panaudoti dirbtinio intelekto ir automatizavimo galias, kartu užtikrinant, kad kvalifikuoti analitikai išliktų neatsiejama saugumo poza.

Norint apsaugoti organizaciją, reikalinga daugiasluoksnė strategija, kurioje atsižvelgiama į įvairius priešininkų naudojamus įėjimo taškus ir atakos vektorius. Apskritai tai yra keturios pagrindinės kategorijos: 1) žiniatinklio ir tinklo atakos; 2) Vartotojo elgesys ir tapatybe pagrįstos atakos; 3) subjektų atakos, nukreiptos į debesų ir hibridines aplinkas; ir 4) kenkėjiškų programų, įskaitant išpirkos reikalaujančias programas, išplėstines nuolatines grėsmes ir kitą kenkėjišką kodą.

AI ir automatizavimo panaudojimas

DI ir mašininio mokymosi (ML) modelių, pritaikytų kiekvienai iš šių atakų klasių, diegimas yra labai svarbus norint aktyviai aptikti ir užkirsti kelią grėsmėms. Dėl žiniatinklio ir tinklo atakų modeliai turi nustatyti tokias grėsmes kaip sukčiavimas, naršyklės išnaudojimas ir paskirstytos paslaugų atsisakymo (DDoS) atakos realiuoju laiku. Naudotojų ir subjektų elgsenos analizė, naudojanti AI, gali aptikti nenormalią veiklą, rodančią, kad paskyra buvo pažeista arba netinkamai naudojami sistemos ištekliai ir duomenys. Galiausiai, AI pagrįsta kenkėjiškų programų analizė gali greitai nustatyti naujas padermes, tiksliai nustatyti kenkėjišką elgesį ir sušvelninti failais pagrįstų grėsmių poveikį. Diegiant AI ir ML modelius visame atakų spektre, organizacijos gali žymiai padidinti savo gebėjimą savarankiškai nustatyti atakas ankstyviausiuose etapuose, kol jos neperauga į visapusiškus incidentus.

Kai dirbtinio intelekto / ML modeliai nustato galimą grėsmę įvairiuose atakų vektoriuose, organizacijos susiduria su kitu svarbiu iššūkiu – įprasminti dažnus įspėjimus ir atskirti kritinius incidentus nuo triukšmo. Sugeneravus tiek daug duomenų taškų ir aptikimų, labai svarbu taikyti kitą AI/ML sluoksnį, kad būtų galima susieti ir nustatyti pirmenybę rimčiausiiems įspėjimams, kurie reikalauja tolesnio tyrimo ir atsako. Nuovargis yra vis svarbesnė problema, kurią reikia išspręsti.

Dirbtinis intelektas gali atlikti pagrindinį vaidmenį šiame įspėjimų skirstymo procese, perimant ir analizuojant didelius saugos telemetrijos kiekius, sujungiant įžvalgas iš kelių aptikimo šaltinių, įskaitant grėsmės žvalgybą, ir atskleidžiant tik aukščiausio tikslumo incidentus. Tai sumažina žmonių analitikams tenkančią naštą, nes kitu atveju juos užplūs plačiai paplitę klaidingi teigiami rezultatai ir žemo tikslumo įspėjimai, neturintys tinkamo konteksto, kad būtų galima nustatyti sunkumą ir tolesnius veiksmus.

Nors grėsmės veikėjai aktyviai naudoja dirbtinį intelektą, kad sukeltų atakas, pvz., DDoS, tikslinį sukčiavimą ir išpirkos reikalaujančią programinę įrangą, gynybinė pusė atsilieka nuo AI pritaikymo. Tačiau tai sparčiai keičiasi, nes saugumo pardavėjai lenktyniauja kurdami pažangius AI/ML modelius, galinčius aptikti ir blokuoti šias DI pagrįstas grėsmes.

Gynybinio dirbtinio intelekto ateitis – tai specializuotų mažų kalbų modelių, pritaikytų konkretiems atakų tipams ir naudojimo atvejams, diegimas, o ne vien dideli generatyvūs AI modeliai. Priešingai, dideli kalbų modeliai rodo daugiau perspektyvų kibernetinio saugumo operacijoms, tokioms kaip pagalbos tarnybos funkcijų automatizavimas, standartinių darbo procedūrų gavimas ir pagalba žmonių analitikams. Sunkus tikslaus grėsmių aptikimo ir prevencijos uždavinys bus geriausiai atliktas naudojant labai specializuotus mažus AI/ML modelius.

Žmogaus kompetencijos vaidmuo

Labai svarbu naudoti AI/ML kartu su procesų automatizavimu, kad būtų galima greitai ištaisyti ir sulaikyti patikrintas grėsmes. Šiame etape, aprūpintos didelio patikimumo incidentais, AI sistemos gali pradėti automatinius žaidimo atsakymus, pritaikytus kiekvienam konkrečiam atakos tipui – blokuoti kenkėjiškus IP [interneto protokolas], izoliuoti pažeistus pagrindinius kompiuterius, taikyti prisitaikančią politiką ir dar daugiau. Tačiau žmogiškoji patirtis išlieka neatsiejama, patvirtinant AI rezultatus, taikant kritinį mąstymą ir prižiūrint savarankiškus reagavimo veiksmus, siekiant užtikrinti apsaugą be verslo trikdžių.

Niuansuotas supratimas yra tai, ką žmonės pateikia prie stalo. Be to, norint analizuoti naujas ir sudėtingas kenkėjiškų programų grėsmes, reikia kūrybiškumo ir problemų sprendimo įgūdžių, kurių mašinos gali nepasiekti.

Žmonių žinios yra būtinos keliose pagrindinėse srityse:

  • Patvirtinimas ir kontekstualizavimas: AI sistemos, nepaisant jų sudėtingumo, kartais gali generuoti klaidingus teigiamus rezultatus arba neteisingai interpretuoti duomenis. Žmonių analitikai reikalingi, kad patvirtintų AI rezultatus ir pateiktų reikiamą kontekstą, kurio AI gali nepastebėti. Taip užtikrinama, kad atsakymai būtų tinkami ir proporcingi realiai grėsmei.
  • Sudėtingas grėsmių tyrimas: kai kurios grėsmės yra per sudėtingos, kad dirbtinis intelektas galėtų susidoroti vienas. Žmonių ekspertai gali gilintis į šiuos incidentus, panaudodami savo patirtį ir intuiciją, kad atskleistų paslėptus grėsmės, kurios AI gali nepastebėti, aspektus. Ši žmogiškoji įžvalga yra labai svarbi norint suprasti visą sudėtingų išpuolių apimtį ir sukurti veiksmingas atsakomąsias priemones.
  • Strateginių sprendimų priėmimas: Nors dirbtinis intelektas gali atlikti įprastas užduotis ir apdoroti duomenis, strateginiai sprendimai dėl bendros saugumo pozicijos ir ilgalaikės gynybos strategijos reikalauja žmogaus sprendimo. Ekspertai gali interpretuoti AI sukurtas įžvalgas, kad priimtų pagrįstus sprendimus dėl išteklių paskirstymo, politikos pokyčių ir strateginių iniciatyvų.
  • Nuolatinis tobulinimas: Žmonių analitikai prisideda prie nuolatinio dirbtinio intelekto sistemų tobulinimo teikdami grįžtamąjį ryšį ir mokymo duomenis. Jų įžvalgos padeda patobulinti AI algoritmus, todėl laikui bėgant jie tampa tikslesni ir efektyvesni. Šis simbiotinis žmonių patirties ir dirbtinio intelekto ryšys užtikrina, kad abu vystytųsi kartu sprendžiant kylančias grėsmes.

Optimizuotas žmogaus ir mašinos bendradarbiavimas

Šio perėjimo pagrindas yra AI sistemų, kurios galėtų mokytis iš istorinių duomenų (prižiūrimas mokymasis) ir nuolat prisitaikyti, kad aptiktų naujus išpuolius taikant neprižiūrimą / sustiprintą mokymosi metodus. Šių metodų derinimas bus labai svarbus norint neatsilikti nuo besivystančių užpuolikų AI galimybių.

Apskritai, dirbtinis intelektas bus labai svarbus gynėjams, siekiant išplėsti savo aptikimo ir reagavimo galimybes. Žmonių žinios turi išlikti glaudžiai integruotos, kad būtų galima ištirti sudėtingas grėsmes, tikrinti AI sistemos rezultatus ir vadovautis strateginėmis gynybos strategijomis. Optimizuotas žmogaus ir mašinos komandos modelis yra idealus ateičiai.

Laikui bėgant kaupiasi didžiuliai saugos duomenų kiekiai, todėl organizacijos gali pritaikyti dirbtinio intelekto analizę šiai telemetrijos sričiai, kad gautų įžvalgų apie aktyvų grėsmių paiešką ir sustiprintų gynybą. Nuolatinis mokymasis iš ankstesnių incidentų leidžia numatyti naujų atakų modelių modeliavimą. Tobulėjant AI galimybėms, mažų ir specializuotų kalbų modelių, pritaikytų konkretiems saugumo naudojimo atvejams, vaidmuo augs. Šie modeliai gali padėti dar labiau sumažinti „pavojaus nuovargį“, tiksliai nustatydami svarbiausius žmonių analizės įspėjimus. Savarankiškas atsakas, maitinamas AI, taip pat gali išsiplėsti, kad būtų galima atlikti daugiau 1 pakopos saugos užduočių.

Tačiau žmogaus sprendimas ir kritinis mąstymas išliks būtini, ypač esant labai rimtiems incidentams. Be jokios abejonės, ateitis yra optimizuotas žmonių ir mašinų komandų jungimas, kai dirbtinis intelektas tvarko didelius duomenų apdorojimo ir įprastines užduotis, todėl ekspertai gali sutelkti dėmesį į sudėtingų grėsmių ir aukšto lygio saugumo strategijos tyrimą.

Anand Naik, vienas iš įkūrėjų ir generalinis direktorius, Sequretek, daugiau nei 25 metus dirbo verslo pasaulyje su tokiomis įmonėmis kaip „Symantec“, kur buvo Pietų Azijos MD, o anksčiau – IBM ir „Sun Microsystems“ technologijų srityse.

Anandas yra kibernetinio saugumo srities ekspertas. Jis dirbo su keliais pasauliniais milžinais, padėdamas jiems apibrėžti savo IT saugumo strategiją, architektūrą ir vykdymo modelius. Jis yra vienas geriausių kibernetinio saugumo lyderių ir dalyvavo įvairiose politikos programose kartu su Indijos vyriausybe ir kitomis pramonės institucijomis. Jis yra atsakingas už produkto viziją ir operacijas Sequretek.