Tehno
StoryEditor

AI protiv AI-ja: Umjetna inteligencija može djelovati na kibernetičku sigurnost i u napadima i u obrani

27. Listopad 2024.

Kao i u mnogim drugim područjima, umjetna inteligencija igra sve veću ulogu i u kibernetičkoj sigurnosti, prijeteći s jedne strane naprednijim prijetnjama, dok istovremeno poboljšava prepoznavanje kibernetičkih prijetnji i obranu od njih. Bitno je, dakle, razlikovati ta dva smjera iz kojih AI može djelovati na kibernetičku sigurnost – u napadima i u obrani. U odgovoru na pitanje hoće li u sljedeće dvije godine umjetna inteligencija omogućiti kibernetičku prednost ‘napadačima‘ ili ‘obrani‘, 8,9 posto direktora u svijetu koji su sudjelovali u istraživanju Svjetskog ekonomskog foruma smatra da će pomoći u ‘obrani‘, a 56 posto vjeruje da će pogodovati ‘napadačima‘, objavljeno je u WEF-ovu izvješću ‘Global Cybersecurity Outlook 2024‘.

– Manje od jednog od deset ispitanika vjeruje da će u sljedeće dvije godine generativna umjetna inteligencija dati prednost obrani u odnosu na napadače. Otprilike polovica ispitanika kaže da napredak u sposobnostima protivnika – phishing, zlonamjerni softver, deepfake – predstavlja najviše zabrinjavajući utjecaj generativne umjetne inteligencije na kibernetičku sigurnost. I na to dodajte podatak o kroničnom nedostatku kibernetičkih profesionalaca kao i hipotezi tko stoji i sa koliko resursa iza određenih APT grupa (engl. advanced persistent threat – napredna trajna prijetnja), i imate izazov – objašnjava rezultate istraživanja Robert Kopal, predsjednik Uprave Veleučilišta Effectus.

Najveći potencijal

S obzirom na rastući broj kibernetičkih prijetnji, koje zbog umjetne inteligencije postaju sve sofisticiranije, velik se naglasak stavlja na prepoznavanje i obranu od njih, u čemu ponovno može pomoći – umjetna inteligencija. Naime, kako dodaje Kopal, AI pokazuje najveći potencijal za otkrivanje prijevara, zlonamjernog softvera, dodjelu ocjena rizika pokušajima prijave na mreže i otkrivanje upada.

– Prema IBM-ovu izvješću ‘Cost of a Data Breach Report‘ iz 2024., većina tvrtki, globalno i u raznim industrijama, usvaja ili razmatra usvajanje AI-ja i automatizacije u svojim sigurnosnim funkcijama. Primjena AI-ja i automatizacije u kibernetičkoj sigurnosti donosi rezultate, smanjujući troškove povreda podataka u nekim slučajevima za prosječno 2,2 milijuna dolara. AI i automatizacijska rješenja skraćuju vrijeme potrebno za identifikaciju i kontrolu povrede, kao i za smanjenje njezinih posljedica. Drugim riječima, branitelji bez podrške AI-ja i automatizacije mogu očekivati dulje vrijeme za otkrivanje i zaustavljanje povrede, uz povećanje troškova u usporedbi s onima koji koriste ova rješenja – objašnjava Kopal te napominje da osim cyber profesionalaca primarno tehničkih znanja i vještina, ‘trebamo i analitičare i matematičare, stručnjake koji znaju razmišljati izvan okvira, te stručnjake koji razumiju kontekst, industriju, trendove, mikrotrendove prije nego postanu trendovi‘.

Ništa revolucionarno

Otkrivanje kibernetičkih prijetnji težak je posao, bez čarobnih i brzih rješenja, a da biste u njemu bili dobri, trebate mnoga znanja i tehnologije, i uz to golemo iskustvo, ističe to i Ivan Penava, direktor inženjeringa u tvrtki ReversingLabs, koja se bavi strojnim učenjem u području detekcije malwarea i sigurnosti lanca opskrbe softvera. Ima vrlo uspješnih primjena AI-ja u otkrivanju kibernetičkoj prijetnji, dodaje Penava, pretežno u usko specifičnim područjima, no on ne smatra da se u tom području ‘dogodila velika revolucija kakvu se najavljivalo ili priželjkivalo prije dvije godine‘.

– Isto kao i kod otkrivanja prijetnji, postoje vrlo specifični scenariji u kojima su sigurnosne tvrtke i istraživači uspješno primijenili umjetnu inteligenciju u odgovoru na kibernetičke prijetnje. Klasična detekcija malicioznih datoteka se temelji na prepoznavanju tzv. signatures unutar datoteka, tj. dijelova datoteka koji su ranije viđeni unutar drugih malicioznih datoteka. Napadači su svjesni toga i zato mijenjaju te specifične dijelove datoteka kako ne bi bili otkriveni. Umjetna inteligencija pomaže u detekciji tih promjena i na taj način kompenzira te napadačke taktike – objašnjava Penava, dodajući da ReversingLabs može otkriti nikada prije viđenu prijetnju (tzv. zero day).

Sastavni dio obrane od napada, kako ističe, jest analiza svih mogućih podataka o datotekama koristeći razne analize. Taj pristup generira jako puno podataka koji zahtijevaju dragocjeno vrijeme čovjeka da ih analizira. AI pomaže tako što napravi sažetak iz velike količine podataka i skrati posao čovjeka

Još jedno moguće područje primjene koje spominje Kopal tiče se pripisivanja (atribucije) kibernetičkih incidenata, budući da značajna većina (54 posto) prikupljenih incidenata nije pripisana nijednom specifičnom akteru prijetnje, prema europskom izvještaju ENISA Threat Landscapeu iz 2023. godine. Međutim, Bojan Ždrnja, glavni tehnološki direktor u tvrtki Infigo, kaže da je korištenje umjetne inteligencije u otkrivanju kibernetičkih prijetnji, odnosno sigurnosnih ranjivosti, još uvijek dosta ograničeno.

– Naime, razni alati koji se danas koriste su dosta dobri za analizu velike količine podataka te kao takvi mogu identificirati određene kategorije ranjivosti, no to je još uvijek na relativno niskoj razini. Iako su objavljeni neki radovi koji izgledaju dosta spektakularno, do danas nisu pružene konkretnije informacije. S pozicije tvrtke koja se preko 15 godina bavi otkrivanjem sigurnosnih ranjivosti u ovom trenutku svakako mogu reći da umjetna inteligencija nije, barem danas, niti blizu za zamijeniti etičkog hakera koji radi na penetracijskim testiranjima. Mi zapravo i glavni naglasak stavljamo na kategoriju ranjivosti poslovne logike, koju samo čovjek može pronaći jer razumije puno širi kontekst rada aplikacije. Umjetna inteligencija tu još uvijek kaska – kaže Ždrnja.

No Ždrnja ističe kako umjetna inteligencija, recimo, može biti korisna u odgovorima na kibernetičke prijetnje.

– Kako se prilikom odgovora na prijetnje radi o analizi velike količine strojno generiranih podataka, određene je aktivnosti svakako moguće automatizirati i značajno ubrzati zahvaljujući umjetnoj inteligenciji. U Infigu već koristimo ovakav pristup gdje se analitičarima na prvoj liniji značajno pomaže i ubrzava posao korištenjem umjetne inteligencije, no potrebno je napomenuti da tu još uvijek treba biti čovjek za kontrolu. Na višim razinama odgovora većinu aktivnosti radi čovjek, ali i dalje se može koristiti umjetna inteligencija upravo za ubrzavanje i automatizaciju – pojašnjava Ždrnja.

Specifičnosti velikih jezičnih modela

Umjetna inteligencija, dakle, kao i u mnogim drugim područjima još uvijek ne može zamijeniti čovjeka, već mu je za sada doseg da skrati vrijeme potrebno da bi kibernetički stručnjak obavio neki posao – bolje išta nego ništa, reklo bi se. Ipak, prilikom razmatranja ograničenja umjetne inteligencije kod kibernetičke sigurnosti, Ždrnja nadodaje da treba uzeti u obzir specifičnosti velikih jezičnih modela i derivata tih modela s kojima se danas uglavnom radi.

– Ovi modeli su fenomenalni u analizi ulaznih podataka ili teksta te generiranju odgovora na osnovu tokenizacije upita, no potrebno je napomenuti da oni još uvijek imaju jako nizak model inteligencije i mogućnosti rješavanja zadataka. To se može vidjeti iz praćenja napretka na području koje se zove AGI – artificial general intelligence, gdje se pokušavaju napraviti modeli koji simuliraju ljudsku inteligenciju i mogućnost samoučenja. Testovi koji se ovdje postavljaju pred modele su značajno kompliciraniji – možda je najzanimljiviji tzv. Ikea test gdje se AI modelu predstavi plan slaganja namještaja iz Ikee i onda kontrolom robota mora složiti namještaj, što je za sada još neostvariv cilj – kaže Ždrnja.

Što su bolji podaci kojima raspolažete, i što ih više imate, u boljoj ste poziciji da pomoću strojnog učenja poboljšate svoj proizvod, smatra Penava.

– Ako imate malo podataka, ograničeni ste. Osim toga, da biste izradili dobar model strojnog učenja, trebate odlično domensko znanje. Ako ga nemate, teško ćete iskoristiti potencijal. Također, želite da vaši modeli što manje griješe, a to nije uvijek lako postići. Umjetna inteligencija nam može pomoći da učinimo velike pomake u sigurnosti, no nije čarobni štapić koji će učiniti da nestanu sve opasnosti. Njezinim razvojem i pozitivni i negativni akteri dobivaju još jače alate. Paradigma ostaje ista, samo se borba ‘dobih‘ i ‘loših‘ ubrzava i postaje složenija – zaključuje Penava.

12. studeni 2024 05:44