Hugsunarleiðtogar
Ofskynjastjórnun: Ávinningur og áhætta af því að nota LLM sem hluti af öryggisferlum
Stór tungumálalíkön (LLM) þjálfaðir í miklu magni af gögnum geta gert öryggisaðgerðateymi snjallari. LLMs veita ábendingar og leiðbeiningar í línu um viðbrögð, úttektir, líkamsstöðustjórnun og fleira. Flest öryggisteymi eru að gera tilraunir með eða nota LLMs til að draga úr handverki í verkflæði. Þetta getur verið bæði fyrir hversdagsleg og flókin verkefni.
Til dæmis getur LLM spurt starfsmann með tölvupósti hvort þeir ætluðu að deila skjali sem var einkaleyfisbundið og vinna úr svarinu með tilmælum til öryggissérfræðings. LLM getur einnig fengið það verkefni að þýða beiðnir um að leita að birgðakeðjuárásum á opinn uppspretta einingar og snúa upp umboðsmönnum sem einbeita sér að sérstökum aðstæðum - nýir þátttakendur í víða notuð bókasöfn, óviðeigandi kóðamynstur - þar sem hver umboðsmaður er undirbúinn fyrir það tiltekna ástand.
Sem sagt, þessi öflugu gervigreindarkerfi bera verulega áhættu sem er ólík öðrum áhættum sem öryggisteymi standa frammi fyrir. Líkön sem knýja öryggi LLMs geta verið í hættu með skjótri inndælingu eða gagnaeitrun. Stöðugar endurgjöfarlykkjur og reiknirit fyrir vélanám án nægilegrar mannlegrar leiðsagnar geta gert slæmum leikara kleift að rannsaka stýringar og síðan framkallað illa markviss svör. LLMs eru viðkvæmt fyrir ofskynjunum, jafnvel á takmörkuðum sviðum. Jafnvel bestu LLMs gera hlutina upp þegar þeir vita ekki svarið.
Öryggisferlar og gervigreindarstefnur í kringum LLM notkun og verkflæði verða mikilvægari eftir því sem þessi kerfi verða algengari í netöryggisaðgerðum og rannsóknum. Að ganga úr skugga um að farið sé að þessum ferlum og að þeir séu mældir og greint frá í stjórnunarkerfum mun reynast mikilvægt til að tryggja að CISOs geti veitt nægilega GRC (Governance, Risk and Compliance) umfjöllun til að mæta nýjum umboðum eins og netöryggisrammanum 2.0.
Stóra loforð LLM í netöryggi
CISOs og teymi þeirra berjast stöðugt við að halda í við vaxandi flóð nýrra netárása. Samkvæmt Qualys náði fjöldi CVE sem tilkynnt var um árið 2023 a nýtt met 26,447. Það er meira en 5X aukning frá 2013.
Þessi áskorun hefur aðeins orðið meira skattaleg þar sem árásaryfirborð meðalsamtaka stækkar með hverju árinu sem líður. AppSec teymi verða að tryggja og fylgjast með mörgum fleiri hugbúnaðarforritum. Tölvuský, API, fjölský og sýndarvæðingartækni hafa aukið flækjustigið. Með nútíma CI/CD verkfærum og ferlum geta umsóknateymi sent meiri kóða, hraðar og oftar. Örþjónustur hafa bæði klofnað einhæft forrit í fjölmörg API og árásaryfirborð og einnig slegið mörg fleiri göt í alþjóðlega eldveggi fyrir samskipti við ytri þjónustu eða tæki viðskiptavina.
Háþróaðir LLMs hafa gríðarleg loforð um að draga úr vinnuálagi netöryggisteyma og bæta getu þeirra. Kóðunarverkfæri sem eru knúin gervigreind hafa víða slegið í gegn í hugbúnaðarþróun. Github rannsóknir komust að því að 92% þróunaraðila eru að nota eða hafa notað gervigreind verkfæri til að koma með kóðatillögu og klára. Flest þessara „stýrimanns“ verkfæra hafa einhverja öryggisgetu. Reyndar eru forritunargreinar með tiltölulega tvöfaldar niðurstöður eins og kóðun (kóði mun annað hvort standast eða falla í einingaprófum) vel fyrir LLM. Fyrir utan kóðaskönnun fyrir hugbúnaðarþróun og í CI/CD leiðslunni gæti gervigreind verið dýrmætt fyrir netöryggisteymi á nokkra aðra vegu:
- Aukin greining: LLMs geta unnið gríðarlegt magn af öryggisgögnum (dagbók, viðvaranir, ógnunargreind) til að bera kennsl á mynstur og fylgni sem eru ósýnileg mönnum. Þeir geta gert þetta á milli tungumála, allan sólarhringinn og yfir fjölmargar víddir samtímis. Þetta opnar ný tækifæri fyrir öryggisteymi. LLMs geta brennt niður stafla af viðvörunum í næstum rauntíma, flaggað þeim sem eru líklegastar til að vera alvarlegar. Með styrkingarnámi ætti greiningin að batna með tímanum.
- Sjálfvirkni: LLMs geta sjálfvirkt öryggisteymiverkefni sem venjulega krefjast samtals fram og til baka. Til dæmis, þegar öryggisteymi fær IoC og þarf að spyrja eiganda endapunkts hvort þeir hafi í raun skráð sig inn í tæki eða hvort þeir séu staðsettir einhvers staðar utan venjulegs vinnusvæðis síns, getur LLM framkvæmt þessar einföldu aðgerðir og síðan fylgt upp með spurningum eftir þörfum og tenglum eða leiðbeiningum. Þetta var áður samspil sem upplýsingatækni- eða öryggisteymi þurfti að sinna sjálfur. LLMs geta einnig veitt háþróaðri virkni. Til dæmis getur Microsoft Copilot for Security búið til greiningarskýrslur um atvik og þýtt flókinn spilliforrit yfir á náttúrulegar lýsingar.
- Stöðugt nám og stilling: Ólíkt fyrri vélanámskerfum fyrir öryggisstefnur og skilning, geta LLMs lært á flugu með því að taka inn mannlegar einkunnir fyrir svörun þess og með því að stilla aftur á nýrri gagnasafn sem er hugsanlega ekki að finna í innri annálaskrám. Reyndar, með því að nota sama undirliggjandi grunnlíkan, er hægt að stilla netöryggis LLMs fyrir mismunandi teymi og þarfir þeirra, vinnuflæði eða svæðisbundin eða lóðrétt sérstök verkefni. Þetta þýðir líka að allt kerfið getur þegar í stað verið eins snjallt og líkanið, með breytingum sem dreifast hratt um öll viðmót.
Hætta á LLM fyrir netöryggi
Sem ný tækni með stutta afrekaskrá hafa LLMs alvarlegar áhættur. Það sem verra er, að skilja fulla umfang þessarar áhættu er krefjandi vegna þess að LLM framleiðsla er ekki 100% fyrirsjáanleg eða forritunarleg. Til dæmis geta LLMs „ofskynjað“ og búið til svör eða svarað spurningum rangt, byggt á ímynduðum gögnum. Áður en LLM er tekið upp fyrir netöryggisnotkunartilvik, verður maður að íhuga hugsanlega áhættu, þar á meðal:
- Skjót innspýting: Árásarmenn geta búið til illgjarnar ábendingar sérstaklega til að framleiða villandi eða skaðlegt úttak. Þessi tegund af árás getur nýtt sér tilhneigingu LLM til að búa til efni byggt á leiðbeiningunum sem það fær. Í netöryggisnotkunartilvikum gæti skyndiinnspýting verið áhættusamasta sem tegund innherjaárásar eða árásar óviðkomandi notanda sem notar leiðbeiningar til að breyta varanlega úttakum kerfisins með því að skekkja hegðun líkana. Þetta gæti myndað ónákvæmar eða ógildar úttak fyrir aðra notendur kerfisins.
- Gagnaeitrun: Þjálfunargögnin sem LLM treysta á geta skemmst af ásetningi og komið niður á ákvarðanatöku þeirra. Í netöryggisstillingum, þar sem stofnanir nota líklega líkan sem eru þjálfuð af verkfæraveitum, gæti gagnaeitrun átt sér stað við að stilla líkanið fyrir tiltekinn viðskiptavin og notkunartilvik. Hættan hér gæti verið óviðkomandi notandi sem bætir við slæmum gögnum - til dæmis skemmdum annálaskrám - til að grafa undan þjálfunarferlinu. Viðurkenndur notandi gæti líka gert þetta óvart. Niðurstaðan væri LLM úttak byggð á slæmum gögnum.
- Ofskynjanir: Eins og áður hefur komið fram geta LLM-menn framkallað röng, órökrétt eða jafnvel illgjarn svör vegna misskilnings á leiðbeiningum eða undirliggjandi gagnagalla. Í netöryggisnotkunartilfellum geta ofskynjanir leitt til mikilvægra villna sem lama ógnargreind, varnarleysisrannsókn og úrbætur og fleira. Vegna þess að netöryggi er mikilvæg verkefni, verður að halda LLM í hærra stigi til að stjórna og koma í veg fyrir ofskynjanir í þessu samhengi.
Eftir því sem gervigreindarkerfi verða færari stækkar upplýsingaöryggisuppsetning þeirra hratt. Svo það sé á hreinu hafa mörg netöryggisfyrirtæki lengi notað mynstursamsvörun og vélanám fyrir kraftmikla síun. Það sem er nýtt á tímum skapandi gervigreindar eru gagnvirkar LLM sem veita lag af upplýsingaöflun ofan á núverandi vinnuflæði og gagnasöfn, helst bæta skilvirkni og auka getu netöryggisteyma. Með öðrum orðum, GenAI getur hjálpað öryggisverkfræðingum að gera meira með minni fyrirhöfn og sama fjármagni, sem skilar betri árangri og hraðari ferlum.