Kapcsolatba velünk

Gondolatvezetők

Hallucinációkontroll: Az LLM-ek biztonsági folyamatok részeként történő bevezetésének előnyei és kockázatai

mm
korszerűsített on

Nagy nyelvi modellek A hatalmas mennyiségű adatra kiképzett (LLM-ek) okosabbá tehetik a biztonsági műveleti csapatokat. Az LLM-ek közvetlen javaslatokat és útmutatást adnak a válaszadásról, az ellenőrzésekről, a testtartás kezeléséről és sok másról. A legtöbb biztonsági csapat kísérletez vagy használ LLM-eket a munkafolyamatok manuális fáradozásának csökkentése érdekében. Ez hétköznapi és összetett feladatokra is vonatkozhat. 

Például egy LLM e-mailben lekérdezheti az alkalmazottat, hogy meg akar-e osztani egy védett dokumentumot, és feldolgozhatja a választ egy biztonsági szakembernek szóló ajánlással. Az LLM-et arra is bízhatják, hogy fordítsa le a kéréseket, hogy keresse a nyílt forráskódú modulok elleni ellátási lánc támadásait, és olyan ügynököket hozzon létre, amelyek meghatározott feltételekre összpontosítanak – széles körben használt könyvtárak új közreműködői, helytelen kódminták –, és minden ügynök az adott állapotra van előkészítve. 

Ennek ellenére ezek a nagy teljesítményű AI-rendszerek olyan jelentős kockázatokat hordoznak magukban, amelyek eltérnek a biztonsági csapatokat fenyegető többi kockázattól. A biztonsági LLM-eket működtető modellek veszélybe kerülhetnek azonnali befecskendezéssel vagy adatmérgezéssel. A folyamatos visszacsatolási hurkok és a gépi tanulási algoritmusok elegendő emberi irányítás nélkül lehetővé tehetik a rossz szereplők számára, hogy ellenőrizzék a vezérlőket, majd rosszul célzott válaszokat indukáljanak. Az LLM-ek hajlamosak a hallucinációkra, még korlátozott területeken is. Még a legjobb LLM-ek is kitalálják a dolgokat, amikor nem tudják a választ. 

Az LLM-használattal és munkafolyamatokkal kapcsolatos biztonsági folyamatok és mesterséges intelligencia-irányelvek egyre kritikusabbak lesznek, ahogy ezek a rendszerek egyre gyakoribbá válnak a kiberbiztonsági műveletek és kutatások során. Annak biztosítása, hogy ezeket a folyamatokat betartsák, és az irányítási rendszerekben mérjék és figyelembe vegyék őket, kulcsfontosságú lesz annak biztosításában, hogy a CISO-k elegendő GRC-lefedettséget (Governance, Risk and Compliance) biztosíthassanak az olyan új megbízások teljesítéséhez, mint a kiberbiztonsági keretrendszer 2.0. 

Az LLM-ek óriási ígérete a kiberbiztonságban

A CISO-k és csapataik folyamatosan küzdenek azért, hogy lépést tartsanak az új kibertámadások áradatával. A Qualys szerint a 2023-ban bejelentett CVE-k száma elérte a új rekord 26,447 XNUMX. Ez több mint ötszöröse 5-hoz képest. 

Ez a kihívás csak egyre megterhelőbbé vált, mivel az átlagos szervezet támadási felülete évről évre nő. Az AppSec csapatoknak sokkal több szoftveralkalmazást kell biztosítaniuk és felügyelniük. A felhőalapú számítástechnika, az API-k, a többfelhős és a virtualizációs technológiák tovább bonyolították a bonyolultságot. A modern CI/CD eszközökkel és folyamatokkal az alkalmazáscsapatok több kódot, gyorsabban és gyakrabban tudnak szállítani. A mikroszolgáltatások a monolitikus alkalmazásokat számos API-ra és támadási felületre bontották, valamint még több lyukat ütöttek a globális tűzfalakon a külső szolgáltatásokkal vagy ügyféleszközökkel való kommunikáció érdekében.

A haladó LLM-ek óriási ígéretet tesznek a kiberbiztonsági csapatok munkaterhelésének csökkentésére és képességeik fejlesztésére. Az AI-alapú kódolóeszközök széles körben behatoltak a szoftverfejlesztésbe. A Github kutatása megállapította, hogy a fejlesztők 92%-a használ vagy használt mesterséges intelligencia-eszközöket kódjavaslatokhoz és -kiegészítésekhez. A legtöbb ilyen „másodpilóta” eszköz rendelkezik bizonyos biztonsági képességekkel. Valójában a viszonylag bináris kimenetelű programozási tudományágak, mint például a kódolás (a kód sikeres vagy sikertelen lesz az egységteszteken), jól megfelelnek az LLM-eknek. A szoftverfejlesztéshez és a CI/CD folyamatban lévő kódkeresésen túl az AI számos más szempontból is értékes lehet a kiberbiztonsági csapatok számára:   

  • Továbbfejlesztett elemzés: Az LLM-ek hatalmas mennyiségű biztonsági adatot (naplók, riasztások, fenyegetés-intelligencia) dolgozhatnak fel, hogy azonosítsák az emberek számára láthatatlan mintákat és összefüggéseket. Ezt megtehetik több nyelven, éjjel-nappal és számos dimenzióban egyszerre. Ez új lehetőségeket nyit a biztonsági csapatok számára. Az LLM-ek szinte valós időben égethetnek le egy halom riasztást, megjelölve azokat, amelyek valószínűleg súlyosak. A megerősítő tanulás révén az elemzésnek idővel javulnia kell. 
  • Automatizálás: Az LLM-ek automatizálhatják a biztonsági csoport feladatait, amelyek általában oda-vissza beszélgetést igényelnek. Például amikor egy biztonsági csapat kap egy IoC-t, és meg kell kérdeznie egy végpont tulajdonosától, hogy valóban bejelentkezett-e egy eszközre, vagy ha valahol a normál munkazónájukon kívül található, az LLM végrehajthatja ezeket az egyszerű műveleteket, majd követheti igény szerint kérdésekkel és linkekkel vagy utasításokkal. Ez korábban olyan interakció volt, amelyet egy IT- vagy biztonsági csapattagnak magának kellett végrehajtania. Az LLM-ek fejlettebb funkciókat is biztosíthatnak. Például a Microsoft Copilot for Security incidenselemzési jelentéseket készíthet, és lefordíthatja az összetett rosszindulatú programkódokat természetes nyelvű leírásokra. 
  • Folyamatos tanulás és hangolás: Ellentétben a korábbi gépi tanulási rendszerekkel a biztonsági politikák és a megértés terén, az LLM-ek menet közben is tanulhatnak a válaszok emberi értékeléseinek feldolgozásával, és olyan újabb adatkészletek újrahangolásával, amelyek esetleg nem szerepelnek a belső naplófájlokban. Valójában ugyanazt a mögöttes alapmodellt használva a kiberbiztonsági LLM-ek különböző csapatokhoz és azok igényeihez, munkafolyamataihoz vagy regionális vagy vertikális specifikus feladataihoz hangolhatók. Ez azt is jelenti, hogy az egész rendszer azonnal olyan intelligens lehet, mint a modell, és a változások gyorsan terjednek az összes interfészen. 

LLM-ek kockázata a kiberbiztonságért

Az LLM-ek, mint új, rövid múltra visszatekintő technológia, komoly kockázatokkal járnak. Ami még rosszabb, e kockázatok teljes mértékének megértése kihívást jelent, mivel az LLM-kimenetek nem 100%-ban kiszámíthatók vagy programozhatók. Például az LLM-ek képzeletbeli adatok alapján „hallucinálhatnak”, és válaszokat találhatnak ki, vagy helytelenül válaszolnak kérdésekre. Az LLM-ek kiberbiztonsági felhasználási esetekre történő alkalmazása előtt mérlegelni kell a lehetséges kockázatokat, többek között: 

  • Sürgős injekció:  A támadók kifejezetten rosszindulatú felszólításokat készíthetnek, hogy félrevezető vagy káros kimeneteket produkáljanak. Ez a fajta támadás kihasználhatja az LLM azon tendenciáját, hogy a kapott felszólítások alapján tartalmat generál. Kiberbiztonsági felhasználási esetekben az azonnali befecskendezés a bennfentes támadás vagy egy olyan jogosulatlan felhasználó támadásaként lehet a legkockázatosabb, aki felszólításokat használ a rendszer kimeneteinek végleges megváltoztatására a modell viselkedésének eltorzításával. Ez pontatlan vagy érvénytelen kimeneteket generálhat a rendszer többi felhasználója számára. 
  • Adatmérgezés:  A képzési adatok, amelyekre az LLM-ek támaszkodnak, szándékosan megsérülhetnek, ami veszélyezteti döntéshozatalukat. Kiberbiztonsági beállításokban, ahol a szervezetek valószínűleg az eszközszolgáltatók által betanított modelleket használnak, adatmérgezés fordulhat elő a modellnek az adott ügyfélre és használati esetre történő hangolása során. Ennek kockázata az lehet, hogy az illetéktelen felhasználó rossz adatokat – például sérült naplófájlokat – ad hozzá a képzési folyamat felforgatásához. Egy jogosult felhasználó ezt véletlenül is megteheti. Az eredmény rossz adatokon alapuló LLM-kimenetek lennének.
  • Hallucinációk: Amint azt korábban említettük, az LLM-ek tényszerűen helytelen, logikátlan vagy akár rosszindulatú válaszokat generálhatnak a felszólítások félreértése vagy a mögöttes adathibák miatt. Kiberbiztonsági felhasználási esetekben a hallucinációk olyan kritikus hibákhoz vezethetnek, amelyek megbénítják a fenyegetések intelligenciáját, a sebezhetőségi osztályozást és a helyreállítást, és még sok mást. Mivel a kiberbiztonság a küldetés szempontjából kritikus tevékenység, az LLM-eket magasabb színvonalon kell tartani a hallucinációk kezelésében és megelőzésében ezekben az összefüggésekben. 

Ahogy a mesterséges intelligencia rendszerek egyre alkalmasabbakká válnak, az információbiztonsági rendszereik gyorsan bővülnek. Az egyértelműség kedvéért sok kiberbiztonsági vállalat régóta használja a mintaillesztést és a gépi tanulást a dinamikus szűréshez. A generatív AI-korszak újdonságai az interaktív LLM-ek, amelyek intelligenciaréteget biztosítanak a meglévő munkafolyamatok és adatkészletek mellett, ideális esetben javítva a kiberbiztonsági csapatok hatékonyságát és képességeit. Más szóval, a GenAI segíthet a biztonsági mérnököknek abban, hogy kevesebb erőfeszítéssel és azonos erőforrásokkal többet végezzenek, jobb teljesítményt és felgyorsult folyamatokat eredményezve. 

Aqsa Taylor, a "" szerzőjeProcess Mining: A biztonsági szög" ebook, a termékmenedzsment igazgatója merész, egy kiberbiztonsági startup, amely biztonsági műveletek folyamatbányászatára szakosodott. A felhőbiztonság specialistájaként az Aqsa volt az első megoldásmérnök és eszkalációs mérnök a Twistlocknál, amely úttörő konténerbiztonsági szállító, amelyet a Palo Alto Networks vásárolt meg 410 millió dollárért 2019-ben. A Palo Alto Networksnél az Aqsa volt az ügynök nélküli termékek bevezetéséért felelős termékvonal-menedzser. munkaterhelés-biztonság és általában a munkaterhelés-biztonság integrálása a Prisma Cloudba, a Palo Alto Network Cloud Native Application Protection Platformjába. Pályafutása során az Aqsa különféle iparágak számos vállalati szervezetének, köztük a Fortune 45-as cégek 100%-ának segített javítani felhőbiztonsági kilátásaikat.