Klíčové věci
- Odborníci tvrdí, že kybernetické útoky podporované umělou inteligencí by se mohly nabourat do vašich dat.
- Renomovaný odborník na kybernetickou bezpečnost Bruce Schneier na nedávné konferenci řekl, že se stále více obává pronikání AI do počítačových systémů.
- V roce 2018 byl proti TaskRabbit zahájen jeden kybernetický útok řízený umělou inteligencí, který ohrozil 3,75 milionu uživatelů.
Hackeři by se mohli brzy ponořit do vašeho počítače pomocí umělé inteligence. Renomovaný odborník na kybernetickou bezpečnost Bruce Schneier nedávno na konferenci řekl, že se obává, že pronikání AI do počítačových systémů je nevyhnutelné. Odborníci tvrdí, že útoky AI jsou rostoucí hrozbou. „S tím, jak je umělá inteligence z hlediska hackování stále užitečnější, mohou být data uživatelů a spotřebitelů výrazně více ohrožena,“ řekl v e-mailovém rozhovoru Andrew Douglas, odborník na kybernetickou bezpečnost ze společnosti Deloitte Risk & Financial Advisory. „Hackeři obvykle hledají ten nejjednodušší cíl s co nejmenším úsilím a umělá inteligence by jim umožnila zaměřit se na více lidí s lepší obranou za kratší dobu.“ Schneier byl poslední, kdo varoval před nebezpečím AI. „Každý dobrý systém umělé inteligence přirozeně najde hacky,“ řekl Schneier na nedávné konferenci. „Nacházejí nová řešení, protože jim chybí lidský kontext, a důsledkem je, že některá z těchto řešení naruší očekávání, která lidé mají – tedy hack.“
AI telefony do vašeho domova
Hackeři již používají umělou inteligenci k pronikání do počítačů. Jeden kybernetický útok řízený umělou inteligencí byl zahájen proti TaskRabbit v roce 2018, ohrozil 3,75 milionu uživatelů, ale ukázalo se, že je nevysledovatelný, uvedl Chris Hauk, obhájce ochrany soukromí spotřebitelů na webu Pixel Privacy, v e-mailovém rozhovoru. „Útok zahájili hackeři využívající velký botnet ovládaný umělou inteligencí, který používal podřízené stroje k provedení masivního DDoS útoku na servery TaskRabbit,“ dodal. Algoritmy strojového učení byly použity k úspěšnému proniknutí do systémů ve společnosti Defcon v roce 2016, poznamenal Ray Walsh, odborník na ochranu dat ve společnosti ProPrivacy, v e-mailovém rozhovoru. V té době se sedm týmů utkalo v soutěži DARPA’s Grand Challenge o výhru 2 miliony dolarů. „Během výzvy používali konkurenti AI k nalezení zranitelností, vytváření exploitů a nasazování záplat pomocí automatizovaných prostředků,“ dodal. Bruce Young, profesor kybernetické bezpečnosti na Harrisburg University of Science and Technology, v e-mailovém rozhovoru uvedl, že umělá inteligence se používá k ovládání botnetů, což je skupina kompromitovaných počítačů pod kontrolou špatného herce, který se používá k útokům na jiné počítače. „AI lze použít k automatickému shromažďování informací o osobě, například bankovních, lékařských, řidičských průkazů, narozeninách,“ řekl. „Mohou formulovat sofistikovaný pokus o phishing a doručit uživateli e-mail, který se jeví jako legitimní.“ Umělá inteligence může být použita k hackování odhalením zranitelností a jejich zneužitím, řekl Paul Bischoff, obhájce soukromí na webu Comparitech, v e-mailovém rozhovoru. Umělá inteligence a strojové učení dokážou odhalit vzorce, které by lidem chyběly. Tyto vzorce mohou odhalit slabiny… AI pak může tyto zranitelnosti zneužít… „AI a strojové učení dokážou odhalit vzorce, které by lidem chyběly,“ dodal. „Tyto vzorce mohou odhalit slabá místa v kybernetické nebo provozní bezpečnosti cíle. Umělá inteligence pak může tyto zranitelnosti využít mnohem rychleji než člověk, ale také flexibilněji než tradiční bot.“ Umělá inteligence může změnit a vylepšit své útoky bez lidského zásahu, řekl Bischoff. „AI je zvláště vhodná pro ukrývání a může se skrývat v systému, kde sbírá data nebo zahajuje útoky po dlouhou dobu,“ dodal.
Chraňte se před AI
Bohužel neexistuje nic konkrétního, co by uživatelé mohli udělat, aby se ochránili před hacky založenými na AI, řekl Bischoff. „Stačí se řídit obvyklými pokyny,“ řekl. „Minimalizujte svou digitální stopu, aktualizujte svůj software, používejte antivirus, používejte firewall, stahujte pouze renomovaný software z renomovaných zdrojů, neklikejte na odkazy ani přílohy v nevyžádaných zprávách.“ Připravte se však na další útoky řízené umělou inteligencí.
„AI se používá jak pro kybernetickou bezpečnost, tak pro kybernetické útoky a v budoucnu bychom mohli vidět systémy umělé inteligence, jak na sebe útočí,“ řekl Bischoff. „Umělá inteligence může být například použita k identifikaci jiného než lidského chování a podniknutí opatření proti botům. A naopak, AI mohou boti používat k přesnějšímu napodobování lidského chování a obcházení systémů detekce botů.“ Státem sponzorované skupiny budou v budoucnu pravděpodobným zdrojem AI hacků, uvedl v e-mailovém rozhovoru Kris Bondi, generální ředitel kybernetické firmy Mimoto. „Tato kategorie již vede k nárůstu porušení, která jsou stále sofistikovanější,“ dodal Bondi. „Pokud je umělá inteligence efektivně využívána k hackování, bude to pravděpodobně znamenat ještě více pokusů o narušení, které jsou ještě sofistikovanější. To má důsledky pro jednotlivce, infrastrukturu, firemní špionáž a národní bezpečnost.“