Minden, amit tudni akartál az AI biztonságról

Az utóbbi években az AI (mesterséges intelligencia) körüli felhajtás nagy mértékben nőtt. Az önvezető autóktól kezdve a világot elpusztító AI botokig terjedő félelmek mindennapossá váltak. Azonban a valóság az, hogy az AI jelenleg sokkal kevésbé fejlett, mint amire számítottunk. Az önvezető autók például, amelyeket gyakran az AI jövőjének szimbólumaként emlegetnek, még mindig nem elterjedtek minden közlekedési ágazatban.

Ebben a blogbejegyzésben szeretnénk lehántani az AI körüli mítoszokat, bemutatni az üzleti alkalmazásokat, és megosztani olyan információkat, amelyek segítenek a döntéshozóknak tájékozódni az AI világában.

AI és ML közötti különbség

Az AI (mesterséges intelligencia) és az ML (gépi tanulás) kifejezéseket gyakran felcserélve használják, pedig különböző fogalmakat jelentenek. Az AI célja az intelligencia létrehozása, amely kognitív képességeket és a Turing-teszt átadásának képességét jelenti. Az AI olyan emberi cselekvéseket próbál megismételni, mint például egy takarítórobot létrehozása, amely hasonló módon működik, mint egy emberi takarító.

Az ML az AI egyik részterülete. Matematika modellekből áll, és képességei az adatok és a gépek kombinációján alapulnak. Az ML úgy működik, hogy tanul az eseményekből és rangsorolja ezeket a tanulságokat. Ennek eredményeként az ML olyan cselekvéseket tud végrehajtani, amelyeket az emberek nem tudnak, például hatalmas adatfolyamok átnézése, mintázatok felismerése és valószínűségek előrejelzése.

Szűk vs. Általános AI

Az Általános AI fogalma az, ami gyakran megrémíti az embereket, mivel ez a „robot uralkodók” megtestesítője, akik lecserélik az emberi lényeket. Bár ez a gondolat technikailag lehetséges, jelenleg még nem tartunk itt.

Ezzel szemben a Szűk AI egy speciális formája az AI-nak, amely nagyon konkrét feladatokra van hangolva. Ez a fókusz lehetővé teszi az emberek támogatását, tehermentesít minket az olyan munkáktól, amelyek túl megterhelőek vagy potenciálisan veszélyesek. Nem az a célja, hogy helyettesítsen minket. A Szűk AI már most is alkalmazott különböző iparágakban, például autók gyártásában vagy dobozok csomagolásában. A kibervédelem területén a Szűk AI képes elemezni tevékenységi adatokat és naplókat, anomáliákat vagy támadási jeleket keresve.

AI és ML alkalmazások

Három gyakori modellje van az AI és az ML alkalmazásának: generatív AI, felügyelt ML és felügyelet nélküli ML.

Generatív AI

A generatív AI egy cutting-edge (csúcstechnológiás) terület az AI-ban, amelyet olyan modellek jellemeznek, mint az LLM-ek (nagy nyelvi modellek), amelyek egy tudáskorpuszon (knowledge corpus) vannak kiképezve. A generatív AI technológia képes új tartalmat generálni az adott korpuszban lévő információk alapján. A Generatív AI alkalmazások példái közé tartozik a ChatGPT, a Bing, a Bard, a Dall-E és speciális kiber asszisztensek, mint az IBM Security QRadar Advisor with Watson vagy az MSFT Security CoPilot.

A generatív AI leginkább olyan esetekben hasznos, mint a brainstorming, asszisztált szövegszerkesztés és kutatás egy megbízható korpusz ellen. A kiberbiztonsági szakemberek, mint például a SOC és fúziós csapatok, használhatják a generatív AI-t kutatásokhoz, hogy megértsék a nulladik napi sebezhetőségeket, hálózati topológiákat vagy új kompromittáló mutatókat (IoC). Fontos felismerni, hogy a Generatív AI néha „hallucinációkat” (téves válaszokat) produkál.

Felügyelet nélküli tanulás

A felügyelet nélküli tanulás azt jelenti, hogy a képzési adatok és az eredmények nincsenek címkézve. Ez az eljárás lehetővé teszi az algoritmusok számára, hogy emberi beavatkozás nélkül vonjanak le következtetéseket az adatokból, hogy megtalálják a mintákat, klasztereket és kapcsolatokat. A felügyelet nélküli tanulást gyakran használják dinamikus ajánlásokhoz, mint például a kiskereskedelmi weboldalakon.

A kiberbiztonságban a felügyelet nélküli tanulás használható klaszterezésre vagy csoportosításra és olyan minták megtalálására, amelyek korábban nem voltak nyilvánvalóak. Például segíthet azonosítani minden olyan malware-t, amely egy bizonyos aláírással rendelkezik, és egy adott nemzetállamtól származik. Az is kiderülhet, ha valakik, akik rákattintanak a phishing emailekre, nagyobb valószínűséggel használnak újra jelszavakat. Egy másik felhasználási mód az anomália detektálás, például olyan tevékenységek észlelése, amelyek arra utalhatnak, hogy egy támadó ellopott hitelesítő adatokat használ.

A felügyelet nélküli tanulás nem mindig a legjobb választás. Ha az eredmény hibája nagyon nagy hatással és súlyos következményekkel jár, ha rövid képzési időre van szükség, vagy ha teljes átláthatóságra van szükség, érdemes más megközelítést alkalmazni.

Felügyelt tanulás

A felügyelt tanulásnál a képzési adatok bemenet/kimenet párokkal vannak címkézve, és a modell pontossága a címkézés és az adathalmaz teljességének minőségétől függ. Gyakran szükség van emberi beavatkozásra a kimenet felülvizsgálatához, a pontosság javításához és az esetleges elfogultság korrigálásához. A felügyelt tanulás a legmegfelelőbb előrejelzések készítéséhez.

A kiberbiztonságban a felügyelt tanulást használják osztályozásra, amely segíthet azonosítani a phishinget és a malware-t. Használható regresszióra is, mint például egy új támadás költségének előrejelzésére a korábbi incidensköltségek alapján.

A felügyelt tanulás nem a legjobb választás, ha nincs idő a képzésre, vagy nincs, aki címkézze vagy képezze az adatokat. Az is problémás lehet, ha nagy mennyiségű adatot kell elemezni, ha nincs elég adat, vagy ha az automatikus osztályozás/csoportosítás a cél.

Megerősítő tanulás (RL)

A megerősítő tanulás (Reinforcement Learning, RL) egyedülálló megközelítést jelent az ML-ben, és egy helyet foglal el a teljesen felügyelt és a felügyelet nélküli tanulás között. Ez azt jelenti, hogy egy modellt újra kell képezni, amikor a meglévő képzés nem tudja előre jelezni bizonyos használati eseteket. Még a mélytanulás (deep learning) is, amely hozzáfér nagy adathalmazokhoz, kihagyhatja a kiugró használati eseteket, amelyeket az RL képes kezelni. Az RL létezése implicit elismerése annak, hogy a modellek hibásak lehetnek.

Generatív AI és a kiberbűnözők

A generatív AI a kiberbűnözők érdeklődését is felkeltette. Például a kiberbűnözők már a ChatGPT, Bard és más GenAI alkalmazások bevezetésének napjától kezdve beszélnek arról, hogyan használhatják ezeket az alkalmazásokat, valamint megosztják tapasztalataikat és gondolataikat azok képességeiről. Úgy tűnik, hogy a kiberbűnözők szerint a generatív AI korlátozásokkal rendelkezik, és valószínűleg néhány év múlva lesz érettebb a támadók általi használatra.

AI kockázatkezelési keretrendszer (AI RMF)

Az AI és az AI-alapú megoldások alkalmazásakor fontos megérteni az AI korlátait, kockázatait és sebezhetőségeit. Az AI kockázatkezelési keretrendszer (AI RMF), amelyet az NIST (National Institute of Standards and Technology) fejlesztett ki, iránymutatások és bevált gyakorlatok sorozata, amely segíti a szervezeteket az AI technológiák bevezetésével és használatával járó kockázatok azonosításában, értékelésében és kezelésében.

Kérdések, amelyeket fel kell tenni a szállítónak

A közeljövőben egyre gyakoribbá válik, hogy a szállítók generatív AI képességeket kínálnak. Itt van néhány kérdés, amelyeket érdemes feltenni a tájékozott döntés érdekében:

  1. Mik a képességek és miért szükségesek? Például a generatív AI nagyon jó emailírásban, így van értelme egy emailrendszer számára. Mi a felhasználási eset a szállító számára?
  2. Milyen a képzési adatok kezelése? A képzési adatokat megfelelően és pontosan kell kezelni, különben elfogultságot okozhatnak. Fontos megkérdezni az adatok típusairól, azok tisztításáról és kezeléséről.
  3. Beépítették a rugalmasságot? A szállító figyelembe vette-e, hogy a kiberbűnözők támadják a rendszert, és bevezették-e a biztonsági kontrollokat?
  4. Valós ROI a hirdetett értékekhez képest? Mi a megtérülés, és igazolja-e a ROI az AI vagy ML alkalmazását (vagy csak a felhajtás és az értékesítési célok miatt kerültek be)?
  5. Valóban megold egy problémát? A legfontosabb kérdés – megoldja-e az AI a problémádat, és jól működik-e? Nincs értelme prémiumot fizetni és további költségeket vállalni, ha az AI nem oldja meg a problémát és nem működik megfelelően.

Befejezés

Az AI képes felhatalmazni és segíteni minket a jobb teljesítmény elérésében, de nem csodaszer. Ezért fontos, hogy a vállalkozások megalapozott döntéseket hozzanak az AI-alapú eszközök belső bevezetéséről.