Programavimas

Kas yra giluminiai klastotės? AI, kuris apgauna

Gilūs klastotės yra laikmenos - dažnai vaizdo, bet kartais ir garso -, kurios buvo sukurtos, pakeistos ar susintetintos giliai mokantis, kad būtų galima apgauti kai kuriuos žiūrovus ar klausytojus tikėti klaidingu įvykiu ar melaginga žinute.

Pirminis „deepfake“ („reddit user / u / deepfake“) pavyzdys vaizdo įraše pakeitė aktorės veidą ant pornografijos atlikėjo kūno - tai, žinoma, buvo visiškai neetiška, nors iš pradžių nebuvo neteisėta. Kiti klastotės pakeitė žinomų žmonių kalbą ar kalbą.

„Deepfakes“ praplečia vaizdo įrašų (ar filmų) komponavimo idėją, kuri buvo daroma dešimtmečius. Reikšmingi vaizdo įrašymo įgūdžiai, laikas ir įranga yra skirti vaizdo įrašų komponavimui; vaizdo klastotėms reikia daug mažiau įgūdžių, laiko (darant prielaidą, kad turite GPU) ir įrangos, nors jie dažnai neįtikina kruopščių stebėtojų.

Kaip sukurti gilias klastotes

Iš pradžių „deepfakes“ rėmėsi autokoderiais - neprižiūrimo nervų tinklo tipu, ir daugelis jų vis dar naudojasi. Kai kurie žmonės patobulino šią techniką naudodami GAN (generatyvinius rungimosi tinklus). Kiti mašininio mokymosi metodai taip pat buvo naudojami giliai padirbinėjant, kartais kartu su ne mašininiais mokymosi metodais, kurių rezultatai buvo skirtingi.

Autokoderiai

Iš esmės, automatinių vaizdo klipų, skirtų giliai padirbtiems veidams vaizduose, procesas atliekamas dviem etapais. Pirmas žingsnis yra naudoti neuroninį tinklą, norint išgauti veidą iš šaltinio vaizdo ir jį užkoduoti į funkcijų rinkinį ir galbūt kaukę, paprastai naudojant kelis 2D konvekcijos sluoksnius, porą tankių sluoksnių ir „softmax“ sluoksnį. Antras žingsnis - naudoti kitą neuroninį tinklą funkcijoms iššifruoti, sugeneruotam veidui padidinti, pagal poreikį pasukti ir pakeisti veidą ir pritaikyti padidintą veidą kitam vaizdui.

Norint mokyti automatinio kodavimo įrenginio, kad būtų sukurtas gilus padirbtas veidas, reikia daug šaltinio ir taikinio veidų vaizdų iš kelių taškų ir esant įvairioms apšvietimo sąlygoms. Neturint GPU, treniruotės gali užtrukti kelias savaites. Su GPU tai vyksta daug greičiau.

GAN

Generatyviniai rungimosi tinklai gali patikslinti automatinių koderių rezultatus, pavyzdžiui, susiejant du nervinius tinklus vienas su kitu. Generatyvinis tinklas bando sukurti pavyzdžius, kurių statistika yra tokia pati kaip originalo, o diskriminacinis tinklas bando aptikti nukrypimus nuo pirminio duomenų paskirstymo.

GAN mokymas yra daug laiko reikalaujanti pasikartojanti technika, kuri labai padidina skaičiavimo laiko sąnaudas, palyginti su automatais. Šiuo metu GAN tinkamesni kuriant tikroviškus įsivaizduojamų žmonių vieno vaizdo rėmus (pvz., „StyleGAN“), nei kuriant „deepfake“ vaizdo įrašus. Tai gali pasikeisti, nes gilaus mokymosi įranga tampa greitesnė.

Kaip aptikti klastotes

2020 m. Pradžioje AWS, „Facebook“, „Microsoft“, „Partnership on AI“ žiniasklaidos vientisumo valdymo komiteto ir akademikų konsorciumas sukūrė „Deepfake Detection Challenge“ (DFDC), kuris „Kaggle“ veikė keturis mėnesius.

Konkurse buvo du gerai dokumentuoti prototipo sprendimai: įvadas ir pradinis rinkinys. Laimėjęs sprendimas, kurį pateikė Selimas Seferbekovas, taip pat turi gana gerą rašymą.

Išsami sprendimų detalė privers jus akis, jei nesate užsiėmę giliais neuroniniais tinklais ir vaizdo apdorojimu. Iš esmės laimėjęs sprendimas aptiko veidą po kadro veidą ir ištraukė SSIM (Struktūrinio panašumo) indekso kaukes. Programinė įranga išskyrė aptiktus veidus ir 30 proc. Maržą, o kodavimui (klasifikavimui) naudojo „EfficientNet B7“, iš anksto paruoštą „ImageNet“. Dabar sprendimas yra atviro kodo.

Deja, net laimėjęs sprendimas sugebėjo sugauti tik apie du trečdalius DFDC bandymų duomenų bazės giluminių klastotių.

Gilių klastotės kūrimo ir aptikimo programos

Viena geriausių atvirojo kodo vaizdo įrašų „deepfake“ kūrimo programų šiuo metu yra „Faceswap“, kuris remiasi originaliu „deepfake“ algoritmu. „Ars Technica“ rašytojui Timui Lee prireikė dviejų savaičių, naudodamasis „Faceswap“, kad sukurtumėte klastotę, kuri pasikeitė vado leitenanto duomenų (Brent Spiner) veidą nuo„Žvaigždžių žygis“: nauja karta į vaizdo įrašą, kuriame Markas Zuckerbergas liudija prieš Kongresą. Kaip būdinga giliai padirbtiems rezultatams, rezultatas neišlaiko tardymo testo tiems, kurie turi didelę grafikos rafinuotumą. Taigi, giluminių padirbinių padėtis vis dar nėra labai gera, išskyrus retas išimtis, kurios labiau priklauso nuo „menininko“ įgūdžių, o ne nuo technologijos.

Tai šiek tiek paguoda, turint omenyje, kad laimėjęs DFDC aptikimo sprendimas taip pat nėra labai geras. Tuo tarpu „Microsoft“ paskelbė „Microsoft Video Authenticator“, tačiau nuo šio rašymo dar neišleido. „Microsoft“ teigia, kad „Video Authenticator“ gali išanalizuoti nejudančią nuotrauką ar vaizdo įrašą, kad gautų procentinę tikimybę arba pasitikėjimo balą, kad medija yra dirbtinai manipuliuojama.

„Video Authenticator“ buvo išbandytas pagal DFDC duomenų rinkinį; „Microsoft“ dar nepranešė, kiek ji yra geresnė už laimėtą Seferbekovo „Kaggle“ sprendimą. Dirbtinio intelekto konkurso rėmėjui būtų būdinga remtis ir tobulinti konkurso laimėtus sprendimus.

„Facebook“ taip pat žada „deepfake“ detektorių, tačiau planuoja šaltinio kodą uždaryti. Viena iš atvirų šaltinių giluminių padirbinių detektorių, tokių kaip Seferbekovo, problema yra ta, kad giliųjų klastotių kartos kūrėjai gali naudoti detektorių kaip GAN diskriminatorių, kad garantuotų, jog klastotė praeis pro šį detektorių, galų gale skatindama dirbtinio intelekto ginklų lenktynes ​​tarp giluminių padirbinių generatorių ir giluminių padirbinių detektorių.

Garso srityje „Descript Overdub“ ir „Adobe“ demonstruojamas, bet dar neišleistas „VoCo“ gali paversti tekstą į kalbą realistišku. Treniruojate „Overdub“ maždaug 10 minučių, kad sukurtumėte sintetinę savo balso versiją; Kai mokysite, galėsite redaguoti balso balsą kaip tekstą.

Susijusi technologija yra „Google WaveNet“. „WaveNet“ susintetinti balsai yra tikroviškesni nei įprasti „iš kalbos į kalbą“ balsai, nors ir ne visai natūralių balsų lygiu, rodo pačios „Google“ bandymai. Jūs girdėjote „WaveNet“ balsus, jei pastaruoju metu naudojote „Google“ padėjėjo, „Google“ paieškos ar „Google“ vertėjo balso išvestį.

Gilūs klastotės ir pornografija be sutarimo

Kaip jau minėjau anksčiau, originalus „deepfake“ vaizdo įraše aktorės veidą apvertė pornografijos atlikėjos kūnu. „Reddit“ nuo to laiko uždraudė / r / deepfake sub-Reddit, kuriame vyko tas ir kiti pornografiniai klastotės, nes didžioji dalis turinio buvo nesuderinta pornografija, kuri dabar yra neteisėta, bent jau kai kuriose jurisdikcijose.

Kitas sub-Reddit ne-pornografiniai klastotės vis dar egzistuoja / r / SFWdeepfakes. Nors to „Reddit“ gyventojai tvirtina, kad jie daro gerą darbą, turėsite patys nuspręsti, ar, sakykime, matant, kaip Joe Bideno veidas blogai suklastotas į Rodo Serlingo kūną, yra jokios vertės - ir ar praeina koks nors iš ten esančių gelmių uoslės patikimumo testas. Mano nuomone, kai kurie artėja prie savęs pardavimo kaip tikro; daugumą galima labdaringai apibūdinti kaip žalius.

Draudimas / r / deepfake, žinoma, nepanaikina pornografijos be sutarimo, kuri gali būti įvairių motyvų, įskaitant keršto pornografiją, kuri pati yra nusikaltimas JAV. Kitos svetainės, kuriose buvo uždrausti nesutarimai, yra „Gfycat“, „Twitter“, „Discord“, „Google“ ir „Pornhub“, galiausiai (po ilgų kojų tempimo) „Facebook“ ir „Instagram“.

Kalifornijoje asmenys, nukreipti į seksualinio pobūdžio nepagrįstą suklastotą turinį, pagamintą be jų sutikimo, turi pagrindą pareikšti ieškinį turinio kūrėjui. Taip pat Kalifornijoje per 60 dienų nuo jų išrinkimo draudžiama platinti kenksmingą „deepfake“ garso ar vaizdo laikmeną, nukreiptą į kandidatą, kuris eina į valstybės postą. Kinija reikalauja, kad klastotės būtų aiškiai pažymėtos tokiomis.

Gilūs klastotės politikoje

Daugelis kitų jurisdikcijų trūkumas įstatymai prieš politinius klastojimus. Tai gali kelti nerimą, ypač kai dėl aukštos kokybės politinių veikėjų klastotės tai pasklinda plačiai. Ar gilus Nancy Pelosi klastotė būtų blogesnė už įprastai sulėtintą Pelosi vaizdo įrašą, kuriuo manipuliuojama, kad atrodytų, jog ji menkina savo žodžius? Gali būti, jei gerai pagaminta. Pavyzdžiui, peržiūrėkite šį CNN vaizdo įrašą, kuriame daugiausia dėmesio skiriama klastotėms, susijusioms su 2020 m. Prezidento kampanija.

Deepfakes kaip pasiteisinimas

„Tai yra klastotė“ taip pat yra galimas pasiteisinimas politikams, kurių tikri, gėdingi vaizdo įrašai nutekėjo. Neseniai tai įvyko (arba tariamai nutiko) Malaizijoje, kai gėjų sekso juostą ekonomikos ministras atmetė kaip netikrą klastotę, nors kitas juostoje parodytas vyras prisiekė, kad tai tikra.

Kita vertus, galimo sergančio Gabono prezidento Ali Bongo mėgėjiško giluminio padirbinio platinimas prisidėjo prie vėlesnio karinio perversmo prieš Bongo. Giliai padirbtas vaizdo įrašas paskatino kariuomenę teigti, kad kažkas negerai, net labiau nei ilgesnis Bongo nebuvimas žiniasklaidoje.

Daugiau giluminių pavyzdžių

Neseniai padirbtas vaizdo įrašas Visos žvaigždės, 1999 m. „Smash Mouth“ klasika, yra pavyzdys, kai manipuliuojama vaizdo įrašu (šiuo atveju - populiarių filmų koše), kad suklastotų lūpas. Kūrėjas, „YouTube“ vartotojas ontyj, pažymi, kad „mane ištiko„ wav2lip “bandymai, o dabar tai egzistuoja ...“ Tai linksma, nors ir neįtikina. Nepaisant to, tai parodo, kiek geriau padirbtas lūpų judesys. Prieš kelerius metus nenatūralus lūpų judesys dažniausiai buvo netikras vaizdo klipas.

Galėtų būti ir blogiau. Pažvelkite į šį netikrą vaizdo įrašą, kuriame prezidentas Obama buvo taikinys ir Jordan Peele kaip vairuotojas. Dabar įsivaizduokite, kad joje nebuvo jokio konteksto, atskleidžiančio tai kaip suklastotą, ir įtraukė uždegantį raginimą veikti.

Ar dar bijote?

Skaitykite daugiau apie mašininį mokymąsi ir gilųjį mokymąsi:

  • Gilus mokymasis ir mašininis mokymasis: supraskite skirtumus
  • Kas yra mašininis mokymasis? Intelektas, gautas iš duomenų
  • Kas yra gilus mokymasis? Algoritmai, imituojantys žmogaus smegenis
  • Mašininio mokymosi algoritmai paaiškinti
  • Automatinis mašininis mokymasis arba „AutoML“ paaiškinimas
  • Paaiškintas vadovaujamas mokymasis
  • Pusiau prižiūrimas mokymasis paaiškintas
  • Neprižiūrimas mokymasis paaiškintas
  • Išaiškintas mokymasis apie sustiprinimą
  • Kas yra kompiuterio matymas? AI vaizdams ir vaizdo įrašams
  • Kas yra veido atpažinimas? Didelio brolio dirbtinis intelektas
  • Kas yra natūralios kalbos apdorojimas? AI kalbai ir tekstui
  • Kaggle: Kur duomenų mokslininkai mokosi ir varžosi
  • Kas yra CUDA? Lygiagretus GPU apdorojimas