V dynamickom prostredí generatívnej umelej inteligencie otvorili prelomové objavy v realistickej syntéze reči sľubné možnosti pre personalizovaných hlasových asistentov a komunikačné nástroje.
Tento pokrok však viedol aj k vzniku znepokojujúceho fenoménu – deepfake. Takýto neetický výtvor dokáže využiť syntetizovanú reč na oklamanie ľudí, čo vyvoláva vážne obavy z šírenia dezinformácií.
V súvislosti s nárastom umelej inteligencie sa spoločnosti (ako napríklad Microsoft) predháňajú vo vývoji nástrojov na boj proti hrozbám, ktoré prináša deepfake. Inovácie OpenAI, DALL-E a ChatGPT podporujú túto snahu a kladú dôraz na detekciu aj prevenciu falošných informácií generovaných umelou inteligenciou.
Hoci sa niektoré existujúce detekčné systémy preukázali ako sľubné, ozvali sa aj varovné hlasy, ako napríklad odborník na technickú bezpečnosť a bývalý vedúci oddelenia dôveryhodnosti a bezpečnosti spoločnosti Google, Arjun Narayan. Vyjadril obavy, že tieto nástroje ťahajú v prebiehajúcom boji proti podvodom riadeným umelou inteligenciou stále za kratší koniec a nedokážu podvody odhaliť včas
Tejto rastúcej hrozbe sa venuje aj docent Ning Zhang z McKelvey School of Engineering na Washington University v St. Louis, ktorý predstavil špičkové riešenie – AntiFake. V tomto článku sa dozviete všetko, čo potrebujete vedieť o tomto novom vynáleze.
Čo to vlastne je deepfake?
Rastúca zručnosť generatívnej umelej inteligencie pri vytváraní realistických falošných údajov posunula útoky sociálneho inžinierstva na alarmujúcu úroveň. Ako uviedol Robert Scalise zo spoločnosti Tata Consultancy Services, tieto útoky zahŕňajú štyri všeobecné kategórie: šírenie dezinformácií, porušovanie duševného vlastníctva, ničenie povesti a pornografiu.
Na začiatku svojho vývoja dokázala deepfake umelá inteligencia generovať iba generické podoby osôb. V priebehu pokroku však začala zahŕňať aj syntetizované hlasy a videá s využitím podoby konkrétnych osôb, čo vytvorilo priestor pre kybernetické útoky, šírenie falošných správ a ničenie reputácie. Využívajúc techniky, ako sú generatívne adverzné siete, deepfake digitálne mení a simuluje skutočné osoby. Môže napodobniť pokyny manažérov, vytvárať phishingové správy, ktoré znepokoja rodinných príslušníkov alebo šíriť falošné a kompromitujúce fotografie.
Tým, ako sa deepfakes stávajú reálnejšími a ťažšie identifikovateľnými, pribúdajú prípady zneužitia. Dostupnosť zdokonalených nástrojov, pôvodne určených na legitímne účely, naďalej zvyšuje obavy. Napríklad nová služba jazykového prekladu spoločnosti Microsoft síce zlepšuje komunikáciu, ale zároveň vyvoláva obavy z možného narušenia obchodných operácií v dôsledku jednoduchosti, s akou môžu páchatelia tieto vymoženosti zneužiť.
Ako funguje inovatívny mechanizmus AntiFake?
Od bežných metód zmierňovania následkov útokov na odhaľovanie deepfake sa AntiFake líši práve proaktívnym prístupom. Tento jedinečný nástroj využíva techniky protivníka na zabránenie syntézy falošnej reči, čím sťažuje nástrojom umelej inteligencie extrahovanie základných charakteristík z hlasových záznamov. Inovácia slúži ako preventívny obranný mechanizmus, strategicky navrhnutý na zmarenie neoprávnenej syntézy reči skôr, ako sa dá využiť na podvodné účely. Týmto pomáha chrániť citlivé oblasti, ako sú napríklad online bankovníctvo, online kasína a iGaming, pred potenciálnymi podvodnými aktivitami.
AntiFake je pre používateľov otvorene prístupný, čím sa zdôrazňuje jeho transparentnosť a dostupnosť v boji proti hrozbám umelej inteligencie.
Ning Zhang, ktorý stojí za AntiFake, vyzdvihuje jeho charakteristickú funkčnosť, keď hovorí: „AntiFake zabezpečuje, že keď zverejníme hlasové údaje, stanú sa obrovskou výzvou pre zločincov, ktorí sa pokúšajú syntetizovať naše hlasy a vydávať sa za nás.“
Využitím nepriateľských techník umelej inteligencie, ktoré sa pôvodne spájali s aktivitami kyberzločincov, nástroj jemne skresľuje alebo narúša zaznamenané zvukové signály. Výsledkom je zvukový výstup, ktorý zostáva rovnakým pre ľudských poslucháčov, ale pre algoritmy AI sa stáva neprekonateľnou výzvou.
Využitie nepriateľskej umelej inteligencie
Dajme tomu, že by sme chceli AntiFake použiť na svoju ochranu. Podľa tímu, ktorý stojí za jeho vývojom, by postup bol nasledovný:
- Pred zdieľaním hlasových nahrávok na platformách, ako sú sociálne médiá alebo webové stránky, ich vložte do programu AntiFake.
- Potom môžete zdieľať spracovaný zvukový výstup vytvorený programom AntiFake, pričom sa zachová pôvodný zvuk.
- Ak útočník získa vašu verejne dostupnú hlasovú stopu a pokúsi sa o syntézu reči, výsledkom je syntetizovaná reč, ktorá sa výrazne odlišuje od vášho autentického hlasu.
AntiFake strategicky využíva protivníkovu umelú inteligenciu a mení taktiku, ktorá sa kedysi nachádzala iba v arzenáli kyberzločincov, na impozantnú obrannú stratégiu. Do zvukového signálu zavádza mierne skreslenia, čím zachováva autentickosť ľudského hlasu a zároveň ho výrazne odlišuje od AI.
S cieľom posilniť AntiFake proti dynamickému prostrediu potenciálnych hrozieb a vznikajúcich modelov syntézy Zhang a Zhiyuan Yu, prvý autor a postgraduálny študent v Zhangovom laboratóriu, skonštruovali tento nástroj pre širokú použiteľnosť. Dôkladné testovanie proti piatim najmodernejším syntetizátorom reči zabezpečuje odolnosť AntiFake voči potenciálnym výzvam deepfake.
Spoločnosti aktívne hľadajú riešenia a smerujú investície na zabránenie manipulácii s umelou inteligenciou. Napríklad startupy ako Optic a priemyselní giganti ako Intel so svojou iniciatívou FakeCatch sa venujú odhaľovaniu zapojenia AI do audio a video obsahu. Zároveň sa subjekty ako Fictitious AI strategicky zameriavajú na odhaľovanie textu generovaného umelou inteligenciou v rámci chatbotov.
Záver
Na záver je dobré dodať, že hoci sa deepfake v dnešnej dobe zdokonaľuje mimoriadne rýchlo, na druhej strane vedecká komunita robí všetko pre to, aby ho odhalila najnovšími vymoženosťami. Firmám sa zatiaľ odporúča, aby prijali preventívne opatrenia, ako napríklad školenie zamestnancov a ostražitosť, ako aj zavedenie spoľahlivých bezpečnostných a autentifikačných postupov.