Pri všetkých dobrých veciach, ktoré môžete robiť s novým chatbotom OpenAI, si musíte byť vedomí aj spôsobov, akými ho môžu využiť ľudia so zlými úmyslami.

Tento týždeň dosiahli obavy z rizík generatívnej umelej inteligencie historický vrchol. Generálny riaditeľ OpenAI Sam Altman dokonca svedčil na vypočutí senátneho výboru pre súdnictvo, aby sa zaoberal rizikami a budúcnosťou AI. Štúdia zverejnená minulý týždeň identifikovala šesť rôznych bezpečnostných rizík spojených s používaním ChatGPT. Medzi tieto riziká patrí možnosť, že osoba so zlým úmyslom bude používať AI na generovanie podvodov, zhromažďovanie škodlivých informácií, zverejňovanie súkromných údajov, generovanie škodlivého textu, generovanie škodlivého kódu a tvorbu urážlivého obsahu. Tu je prehľad toho, čo jednotlivé riziká znamenajú a na čo by ste si podľa štúdie mali dávať pozor.

Osoba konajúca so zlým úmyslom môže zhromažďovať informácie, ktoré môže neskôr použiť na poškodenie. Keďže bot bol vycvičený na veľké množstvo údajov, pozná množstvo informácií, ktoré by sa mohli stať zbraňou, ak sa dostanú do nesprávnych rúk. V štúdii je AI vyzvaný, aby prezradil, aký IT systém používa konkrétna banka. Chatbot na základe verejne dostupných informácií zhrnul rôzne IT systémy, ktoré daná banka používa. Toto je len príklad toho, ako možno zneužiť umelú inteligenciu na vyhľadávanie informácií, ktoré by mu mohli umožniť spôsobiť škodu. „Toto by sa dalo využiť na pomoc v prvom kroku kybernetického útoku, keď útočník zhromažďuje informácie o cieli, aby zistil, kde a ako čo najefektívnejšie zaútočiť,“ uvádza sa v štúdii.

Jednou z najobľúbenejších funkcií je schopnosť generovať text, ktorý sa dá použiť na písanie esejí, e-mailov, piesní a podobne. Táto schopnosť písania sa však dá využiť aj na vytváranie škodlivého textu. Príkladom môže byť generovanie phishingových kampaní, dezinformácií, napríklad falošných spravodajských článkov, spamu a dokonca aj vydávania sa za niekoho iného, ako vymedzuje štúdia. Na otestovanie tohto rizika autori v štúdii použili ChatGPT na vytvorenie phishingovej kampane, ktorá informovala zamestnancov o falošnom zvýšení platu s pokynmi na otvorenie priloženého excelovského hárku, ktorý obsahoval malvér. Podľa očakávania bot vytvoril hodnoverný a uveriteľný e-mail.

Podobne ako úžasné schopnosti v oblasti písania, aj pôsobivé schopnosti chatbota v oblasti kódovania sa stali pre mnohých užitočným nástrojom. Schopnosť generovať kód by sa však dala využiť aj na škodenie. ChatGPT sa dá použiť na rýchle vytváranie kódu, čo útočníkom umožňuje rýchlejšie nasadiť hrozby aj s obmedzenými znalosťami kódovania. Okrem toho by sa mohol podľa štúdie použiť na vytváranie obfuskovaného kódu, čo by bezpečnostným analytikom sťažilo odhaľovanie škodlivých aktivít a vyhýbanie sa antivírusovému softvéru. V príklade chatbot odmieta generovať škodlivý kód, ale súhlasí s generovaním kódu, ktorý by mohol testovať zraniteľnosť Log4j v systéme.

ChatGPT má zavedené ochranné mechanizmy, ktoré zabraňujú šíreniu urážlivého a neetického obsahu. Ak je však používateľ dostatočne odhodlaný, existujú spôsoby, ako prinútiť aplikáciu vysloviť veci, ktoré sú urážlivé a neetické. Autori v štúdii napríklad dokázali obísť ochranné opatrenia tým, že bota uviedli do „režimu pre vývojárov“. V ňom AI povedal niekoľko negatívnych vecí o konkrétnej rasovej skupine. Chatbot sa dá použiť na pomoc pri vytváraní nových aplikácií, služieb, webových stránok a podobne. Môže to byť veľmi pozitívny nástroj, ak sa využije na pozitívne výsledky, napríklad na vytvorenie vlastného podniku alebo na realizáciu vysnívaného nápadu. Môže to však znamenať aj to, že vytváranie podvodných aplikácií a služieb je jednoduchšie ako kedykoľvek predtým.

Takisto ho môžu zneužiť škodcovia na vývoj programov a platforiem, ktoré napodobňujú iné a poskytujú bezplatný prístup ako prostriedok na prilákanie nič netušiacich používateľov. Títo aktéri môžu chatbot využiť aj na vytvorenie aplikácií určených na zber citlivých informácií alebo inštaláciu škodlivého softvéru do zariadení používateľov. Hoci má zavedené ochranné opatrenia, ktoré zabraňujú zdieľaniu osobných informácií a údajov ľudí. Podľa štúdie však riziko, že bot neúmyselne zdieľa telefónne čísla, e-maily alebo iné osobné údaje, zostáva problémom. Podľa štúdie by sa útočníci mohli pokúsiť získať niektoré časti tréningových údajov aj pomocou útokov na odvodzovanie členstva. Ďalším rizikom pri zverejňovaní súkromných údajov je, že ChatGPT môže zdieľať informácie o súkromnom živote verejných osôb vrátane špekulatívneho alebo škodlivého obsahu, ktorý by mohol poškodiť povesť danej osoby.

Zdroj