Kybernetické preteky v zbrojení a prvý známy AI malvér je na svete.

Exponenciálny rast chatbotov, veľkých jazykových modelov (LLM) a ďalších technológií umelej inteligencie (AI) pretvára oblasť kybernetickej bezpečnosti na oboch stranách barikády. Zatiaľ čo hackeri už aktívne zneužívajú AI na vylepšovanie svojich útokov, obrancovia sa musia rýchlo prispôsobovať, aby dokázali držať krok a zabrániť eskalácii škôd.

Analytici hrozieb potvrdzujú, že kyberzločinci a hackeri podporovaní nepriateľskými štátmi dnes už bežne využívajú chatboty a veľké jazykové modely na hackerské účely. Na druhej strane, bezpečnostné tímy nasadzujú rovnaké nástroje AI na detekciu zraniteľností a blokovanie útokov ešte predtým, ako stihnú napáchať škody. Nedávna správa ukrajinských úradov a bezpečnostných výskumníkov potvrdzuje, že tieto preteky v zbrojení sú v plnom prúde.

V júli ruská kyberšpionážna skupina APT28 rozšírila malvér s názvom Lamehug, ktorý je prvým verejne zdokumentovaným malvérom poháňaným umelou inteligenciou. Táto kampaň využívala veľký jazykový model prostredníctvom rozhrania Hugging Face API, čím premieňala jednoduché, ľudsky čitateľné príkazy na komplexné úlohy vykonávané na infikovaných počítačoch. Bezpečnostná firma CrowdStrike varovala, že hackeri a zahraniční špióni už AI aktívne využívajú.

Spoločnosť zaznamenala rastúce dôkazy o tom, že čínski, ruskí a iránski hackeri nasadzujú chatboty a LLM na škodlivé účely. Zaujímavosťou je, že kým veľké technologické spoločnosti a startupy, ktoré do AI investovali stovky miliárd dolárov, sa stále snažia nájsť ziskové riešenia, hackerom sa už darí profitovať z pokrokov, ktoré tieto firmy ešte len monetizujú. Na strane obrancov patrí medzi priekopníkov Google.

Viceprezidentka pre bezpečnostné inžinierstvo, Heather Adkins, uviedla, že veľké jazykové modely pomáhajú firme identifikovať bezpečnostné zraniteľnosti v široko používaných softvérových produktoch. Ich model Gemini doteraz odhalil najmenej 20 významných chýb, pričom Google sa o tieto zistenia podelil s dotknutými výrobcami.

Hoci technológie poháňané AI zatiaľ nepriniesli v kyberbezpečnosti revolučné výsledky, veľké jazykové modely sa osvedčili ako užitočné nástroje na automatizáciu úloh, ktoré už vykonávajú ľudskí analytici. Dokážu urýchliť proces hľadania chýb a zefektívniť detekciu zraniteľností, aj keď nenahrádzajú ľudskú expertízu. „Je to začiatok začiatku. Možno sa blížime k stredu začiatku,“ povedala Adkins pre NBC News.

Napriek rastúcim rizikám existuje dôvod na optimizmus. Alexei Bulazel, riaditeľ pre kybernetickú bezpečnosť v Národnej bezpečnostnej rade Bieleho domu, tvrdí, že umelá inteligencia bude v konečnom dôsledku nahrávať viac obrancom ako útočníkom. Podľa neho AI exceluje v demokratizácii prístupu k informáciám o zraniteľnostiach a v odhaľovaní bežných chýb, čo dáva bezpečnostným tímom cennú výhodu.

Zdroj