Obsah:

Hlboké falzifikáty: Neuroset sa naučil vytvárať falzifikáty zvuku a videa
Hlboké falzifikáty: Neuroset sa naučil vytvárať falzifikáty zvuku a videa

Video: Hlboké falzifikáty: Neuroset sa naučil vytvárať falzifikáty zvuku a videa

Video: Hlboké falzifikáty: Neuroset sa naučil vytvárať falzifikáty zvuku a videa
Video: Buying CHEAP Dodge HELLCATS & SCAT PACKS At Salvage Auction! 2024, Smieť
Anonim

Na vytvorenie „individuálneho“spravodajského obrazu pre kohokoľvek z nás a na falšovanie mediálnych správ v ňom vybraných dnes stačí úsilie jedného programátora. Pre Izvestija o tom povedali špecialisti na umelú inteligenciu a kybernetickú bezpečnosť.

Nedávno odhadli, že si to vyžaduje prácu viacerých tímov. Takéto zrýchlenie bolo možné vďaka vývoju technológií pre útoky na neurónové siete a generovanie audio a video falzifikátov pomocou programov na vytváranie „deep fake“. Noviny Izvestija boli nedávno vystavené podobnému útoku, keď tri líbyjské spravodajské portály naraz zverejnili správu, ktorá sa údajne objavila v jednom z vydaní. Podľa odborníkov môžeme do 3-5 rokov očakávať inváziu robotických manipulátorov, ktoré budú automaticky schopné vytvárať množstvo fejkov.

Odvazny novy svet

Projektov, ktoré prispôsobujú obraz informácií vnímaniu konkrétnych užívateľov, pribúda. Jedným z príkladov ich práce bola nedávna akcia troch líbyjských portálov, ktoré zverejnili správu údajne uverejnenú vo vydaní Izvestija 20. novembra. Tvorcovia falzifikátu upravili titulnú stranu novín a zverejnili na nej správu o rokovaniach medzi poľným maršálom Khalifom Haftarom a predsedom vlády národnej jednoty (PNS) Fayezom Sarrajom. Falošný typ písma Izvestija sprevádzala fotografia dvoch vodcov urobená v máji 2017. Štítok s logom publikácie bol vyrezaný zo skutočne vydaného čísla z 20. novembra a všetky ostatné texty na stránke z čísla z 23. októbra.

Z pohľadu špecialistov je možné v dohľadnej dobe takéto falšovanie robiť automaticky.

Truman Show – 2019: Ako neurónové siete naučili falošný obraz správ
Truman Show – 2019: Ako neurónové siete naučili falošný obraz správ

„Technológie umelej inteligencie sú teraz úplne otvorené a zariadenia na príjem a spracovanie údajov sa miniaturizujú a zlacňujú,“Jurij Vilsiter, doktor fyzikálnych a matematických vied, profesor Ruskej akadémie vied, vedúci oddelenia FSUE „GosNIIAS“, povedal Izvestija. - Preto je vysoko pravdepodobné, že v blízkej budúcnosti nás nebudú môcť odpočúvať a špehovať, ako aj manipulovať s realitou, ani štát a veľké korporácie, ale jednoducho súkromníci. V nadchádzajúcich rokoch bude možné pomocou analýzy preferencií používateľov ovplyvňovať ho prostredníctvom informačných kanálov a veľmi šikovných falzifikátov.

Podľa Yuriho Vilsitera už existujú technológie, ktoré sa dajú použiť na takýto zásah do duševného prostredia. Teoreticky možno inváziu robotických robotov očakávať o niekoľko rokov, povedal. Limitujúcim bodom tu môže byť potreba zhromaždiť veľké databázy príkladov reálnych reakcií ľudí na umelé podnety so sledovaním dlhodobých následkov. Takéto sledovanie bude pravdepodobne vyžadovať niekoľko ďalších rokov výskumu, kým sa dôsledne získajú cielené útoky.

Útok vízie

Alexey Parfentiev, vedúci analytického oddelenia spoločnosti SearchInform, tiež súhlasí s Jurijom Vilsiterom. Odborníci už podľa neho predpovedajú útoky na neurónové siete, aj keď teraz takéto príklady prakticky neexistujú.

- Výskumníci z Gartner sa domnievajú, že do roku 2022 bude 30 % všetkých kybernetických útokov zameraných na skazenie údajov, na ktorých je trénovaná neurónová sieť, a na krádež hotových modelov strojového učenia. Potom si napríklad bezpilotné prostriedky môžu zrazu začať mýliť chodcov s inými predmetmi. A to sa nebudeme baviť o finančnom či reputačnom riziku, ale o živote a zdraví bežných ľudí, domnieva sa odborník.

V rámci výskumu sa v súčasnosti vykonávajú útoky na systémy počítačového videnia. Účelom takýchto útokov je prinútiť neurónovú sieť detekovať v obraze niečo, čo tam nie je. Alebo naopak nevidieť, čo bolo plánované.

Truman Show – 2019: Ako neurónové siete naučili falošný obraz správ
Truman Show – 2019: Ako neurónové siete naučili falošný obraz správ

„Jednou z aktívne sa rozvíjajúcich tém v oblasti trénovania neurónových sietí sú takzvané adversariálne útoky („adversarial attacks. “- Izvestia),“vysvetlil Vladislav Tushkanov, webový analytik spoločnosti Kaspersky Lab. - Vo väčšine prípadov sú zamerané na systémy počítačového videnia. Na uskutočnenie takéhoto útoku je vo väčšine prípadov potrebný úplný prístup k neurónovej sieti (tzv. white-box útoky) alebo výsledkom jej práce (black-box útoky). Neexistujú metódy, ktoré by v 100% prípadov dokázali oklamať akýkoľvek systém počítačového videnia. Okrem toho už boli vytvorené nástroje, ktoré umožňujú testovať odolnosť neurónových sietí voči útokom protivníka a zvyšovať ich odolnosť.

V priebehu takéhoto útoku sa útočník snaží rozpoznaný obrázok nejako zmeniť tak, aby neurónová sieť nefungovala. Na fotografii sa často prekrýva šum, podobne ako pri fotografovaní v slabo osvetlenej miestnosti. Človek si takéto rušenie väčšinou dobre nevšimne, no neurónová sieť začne zlyhávať. Na vykonanie takéhoto útoku však útočník potrebuje prístup k algoritmu.

Podľa Stanislava Ashmanova, generálneho riaditeľa Neuroset Ashmanov, v súčasnosti neexistujú žiadne metódy riešenia tohto problému. Okrem toho je táto technológia dostupná pre každého: bežný programátor ju môže použiť tak, že si stiahne potrebný open source softvér zo služby Github.

Truman Show – 2019: Ako neurónové siete naučili falošný obraz správ
Truman Show – 2019: Ako neurónové siete naučili falošný obraz správ

- Útok na neurónovú sieť je technika a algoritmy na oklamanie neurónovej siete, vďaka ktorej produkuje falošné výsledky a v skutočnosti ju rozbije ako zámok dverí, - domnieva sa Ashmanov. - Napríklad teraz je celkom jednoduché prinútiť systém rozpoznávania tváre, aby si myslel, že to nie ste vy, ale pred ním Arnold Schwarzenegger - to sa robí tak, že do údajov prichádzajúcich do neurónovej siete primiešavajú ľudské oko nepostrehnuteľné prísady. Rovnaké útoky sú možné pre systémy rozpoznávania a analýzy reči.

Odborník si je istý, že to bude len horšie – tieto technológie sa dostali k masám, podvodníci ich už využívajú a neexistuje proti nim žiadna ochrana. Keďže neexistuje žiadna ochrana proti automatizovanému vytváraniu falzifikátov obrazu a zvuku.

Hlboké falzifikáty

Deepfake technológie založené na Deep Learning (technológie hlbokého učenia neurónových sietí. - Izvestija) už predstavujú skutočnú hrozbu. Video alebo audio falzifikáty sa vytvárajú úpravou alebo prekrytím tvárí známych ľudí, ktorí údajne vyslovujú potrebný text a zohrávajú potrebnú úlohu v zápletke.

„Deepfake vám umožňuje nahradiť pohyby pier a ľudskú reč videom, čo vytvára pocit realizmu toho, čo sa deje,“hovorí Andrey Busargin, riaditeľ oddelenia pre inovatívnu ochranu značky a duševné vlastníctvo v Group-IB. - Falošné celebrity „ponúkajú“používateľom na sociálnych sieťach účasť na žrebovaní hodnotných cien (smartfóny, autá, peňažné sumy) atď. Odkazy z takýchto videopublikácií často vedú na podvodné a phishingové stránky, kde sú používatelia požiadaní o zadanie osobných údajov vrátane údajov o bankových kartách. Takéto schémy predstavujú hrozbu pre bežných používateľov aj verejne známe osoby, ktoré sa spomínajú v reklamách. Tento druh podvodu začína spájať obrázky celebrít s podvodmi alebo inzerovaným tovarom, a práve tu narážame na poškodenie osobnej značky, hovorí.

Truman Show – 2019: Ako neurónové siete naučili falošný obraz správ
Truman Show – 2019: Ako neurónové siete naučili falošný obraz správ

Ďalšia hrozba je spojená s využívaním „falošných hlasov“na telefonické podvody. Napríklad v Nemecku kyberzločinci použili hlasový deepfake, aby prinútili šéfa dcérskej spoločnosti zo Spojeného kráľovstva urýchlene previesť 220 000 EUR v telefonickom rozhovore, pričom sa vydával za manažéra spoločnosti.na účet maďarského dodávateľa. Šéf britskej firmy tušil trik, keď jeho „šéf“požiadal o druhú peňažnú poukážku, no hovor prišiel z rakúskeho čísla. V tom čase už bola prvá tranža prevedená na účet v Maďarsku, odkiaľ boli peniaze stiahnuté do Mexika.

Ukazuje sa, že súčasné technológie vám umožňujú vytvoriť individuálny spravodajský obrázok plný falošných správ. Navyše bude čoskoro možné rozlíšiť falošné od skutočného videa a zvuku iba hardvérom. Opatrenia zakazujúce rozvoj neurónových sietí podľa odborníkov pravdepodobne nebudú účinné. Čoskoro preto budeme žiť vo svete, v ktorom bude potrebné neustále všetko preverovať.

„Musíme sa na to pripraviť a musíme to akceptovať,“zdôraznil Jurij Vilsiter. - Ľudstvo nie je prvýkrát, čo prechádza z jednej reality do druhej. Náš svet, spôsob života a hodnoty sú radikálne odlišné od sveta, v ktorom žili naši predkovia pred 60 000 rokmi, pred 5 000 rokmi, pred 2 000 rokmi a dokonca pred 200-100 rokmi. V blízkej budúcnosti bude človek do značnej miery zbavený súkromia, a preto bude nútený nič neskrývať a konať čestne. Zároveň nič v okolitej realite a vo vlastnej osobnosti nemožno vziať na vieru, všetko bude potrebné spochybňovať a neustále preverovať. Bude však táto budúca realita strašná? nie Bude to jednoducho úplne iné.

Odporúča: