Avast: Kyberhrozby založené na AI postupně narůstají

Avast: Kyberhrozby založené na AI postupně narůstají
2023-09-23T15:00:39+02:00
• 23. 9. 2023

Zdroj: Avast

Umělá inteligence v poslední době zažívá razantní růst ve schopnostech i v globálním využití. A to jak velké jazykové modely, tak i generativní AI. Nezahálejí však ani kyberzločinci, kteří podle výzkumníků Avastu už v tuto chvíli aktivně testují nástroje, jako je ChatGPT od společnosti OpenAI. 

AI zdokonalí sociální inženýrství, s malwarem ale nepomůže

Generativní AI a další formy umělé inteligence pomohou kyberzločincům vytvářet bezchybné a snáze uvěřitelné vícejazyčné texty, které poskytnou lepší možnosti pro pokročilejší sociální inženýrství. Právě gramatické chyby nebo nepřirozený jazyk jsou totiž jedním ze základních znaků pro rozpoznání podvodu. V budoucnu tak uvidíme více na míru uzpůsobeného phishingu, nejrůznějších podvodů, malvertisingu (tj. škodlivých reklam) nebo podvodných „deepfake“ videí na YouTube zneužívajících známé osobnosti. 

ChatGPT

Zdroj: Gizchina

Útočníci také využívají popularitu názvu ChatGPT, a to například při tzv. typosquattingu, kdy lákají na podobně vypadající adresy URL nebo dávají do obchodů s aplikacemi podobně pojmenované nástroje. Objevují se i falešná rozšíření do prohlížečů zneužívající název ChatGPT, která uživateli ve skutečnosti nainstalují škodlivý software. Do stejné kategorie lze zařadit i vyskakující zprávy o nové aktualizaci AI nástroje.

Výzkumníci Avastu však neočekávají, že by generativní umělá inteligence v současné podobě kyberzločincům výrazněji pomohla při psaní malwaru jako takovém. Ačkoli to intenzivně testují, stále je potřeba relativně komplikovaný přístup, který se ve srovnání s existujícími jednoduššími postupy nevyplatí. Dobrou zprávou je také to, že samotné nástroje umělé inteligence se umí před zneužitím do jisté míry bránit a dokáží uživatele upozornit na nevhodné požadavky. To jejich použití pro tvorbu spambotů, příspěvků na sociální sítě či falešných recenzí na nákupní portály značně limituje.

AI versus kyberzločinci

Umělá inteligence pomáhá i bezpečnostním výzkumníkům v boji s kyberútočníky, například s identifikací a popisováním detekcí. Není to však zadarmo. Kromě vysokých finančních nákladů (mnohdy i vyšší stovky tisíc dolarů denně) musí výzkumníci dbát i na ochranu soukromí, protože zadané informace se používají k dalšímu trénování nástroje. I zde se navíc projevuje zatím těžko opravitelný problém halucinování umělé inteligence, která v některých případech neposkytuje správné výstupy.

Příklady konkrétních podvodů zneužívajících AI a další informace o jejím fungování naleznete na blogu Avast Decoded (v angličtině). V případě zájmu lze domluvit i rozhovor s jedním z výzkumníků Avastu, který může poskytnout další kontext.

Zdroj: Tisková zpráva

Stiknutím klávesy J se přesunete na starší článek, klávesa K vás přesune na novější.

💡 Získejte Dotekománie Premium a využijte web naplno.

reklama
reklama

Jakub Sobotka

Působí v IT a svět IT a mobilních technologií byly vždy jeho vášní. Ve volném čase rád sportuje, čte, nebo se toulá přírodou. Ač uživatel Apple platformy, velmi dobře si rozumí i s Androidem.

Komentáře

Reklama

Dotekománie.cz

Přidat komentář

Pro komentování se musíte přihlásit

Tmavý režim

Vyzkoušejte

Dotekománie Premium

Vychutnejte si web bez bannerové reklamy a získejte předběžný přístup k článkům. Podpoříte i Dotekománii.

Vyzkoušet

Odběr novinek

To podstatné ze světa mobilů a technologií jednou týdně do vašeho e-mailu. 📱
A nepropásnete soutěže!

Odebírat