Video. Ce este un deepfake?

L-ați văzut pe Barack Obama numindu-l pe Donald Trump „ o prostie completă ” sau Mark Zuckerberg se laudă cu „ controlul total al miliarde de date furate de oameni ” sau ați asistat la scuzele emoționante ale lui Jon Snow pentru finalul sumbru din Game of Thrones? Răspundeți da și ați văzut un deepfake. Răspunsul secolului 21 la Photoshopping, deepfakes utilizează o formă de inteligență artificială numită deep learning pentru a face imagini cu evenimente false, de unde și numele deepfake. Doriți să puneți cuvinte noi în gura unui politician, să jucați în filmul preferat sau să dansați ca un profesionist ? Atunci este timpul să faci un deepfake.

 

Pentru ce sunt?
Multe sunt pornografice. Firma AI Deeptrace a găsit 15.000 de videoclipuri deepfake online în septembrie 2019, aproape dublându-se în nouă luni. Un uimitor 96% au fost pornografici și 99% dintre fețele cartografiate de la celebrități feminine la vedete porno. Deoarece noile tehnici permit oamenilor necalificați să facă deepfakes cu o mână de fotografii, este posibil ca videoclipurile false să se răspândească dincolo de lumea celebrităților pentru a alimenta pornoul de răzbunare. După cum spune Danielle Citron, profesor de drept la Universitatea din Boston: „Tehnologia Deepfake este armată împotriva femeilor”. Dincolo de porno, există o mulțime de parodie, satiră și răutate.

Este vorba doar despre videoclipuri?
Nu. Tehnologia Deepfake poate crea de la zero fotografii convingătoare, dar complet fictive. Un jurnalist inexistent de la Bloomberg, „Maisy Kinsley”, care avea un profil pe LinkedIn și Twitter, a fost probabil un deepfake. Un alt fals de pe LinkedIn, „Katie Jones”, a pretins că lucrează la Centrul pentru Studii Strategice și Internaționale, dar se crede că este un deepfake creat pentru o operațiune de spionaj străin.

Și sunetul poate fi preluat, pentru a crea „ skin-uri vocale ” sau „ clone vocale ” de personalități publice. În martie anul trecut, șeful unei filiale britanice a unei firme energetice germane a plătit aproape 200.000 de lire sterline într-un cont bancar maghiar, după ce a fost sunat de un fraudator care a imitat vocea CEO-ului german . Asigurătorii companiei consideră că vocea a fost un fals, dar dovezile sunt neclare. Escrocherii similare au folosit mesaje vocale WhatsApp înregistrate.

Cum sunt făcute?
Cercetătorii universitari și studiourile de efecte speciale au depășit mult timp limitele a ceea ce este posibil cu manipularea video și a imaginilor. Însă deepfakes s-au născut în 2017 când un utilizator cu același nume Reddit a postat videoclipuri porno pe site. Videoclipurile au schimbat fețele vedetelor – Gal Gadot, Taylor Swift, Scarlett Johansson și alții – pe artiștii porno.

Este nevoie de câțiva pași pentru a realiza un videoclip de schimbare a feței. În primul rând, rulați mii de fotografii ale celor doi oameni printr-un algoritm AI numit codificator. Codificatorul găsește și învață similitudini între cele două fețe și le reduce la caracteristicile lor comune comune, comprimând imaginile în proces. Un al doilea algoritm AI numit decodor este apoi învățat să recupereze fețele din imaginile comprimate. Deoarece fețele sunt diferite, antrenezi un decodor pentru a recupera fața primei persoane și un alt decodor pentru a recupera fața celei de-a doua persoane. Pentru a efectua schimbarea feței, pur și simplu introduceți imagini codificate în decodorul „greșit”. De exemplu, o imagine comprimată a feței persoanei A este alimentată în decodorul antrenat de persoana B. Decodorul reconstruiește apoi fața persoanei B cu expresiile și orientarea feței A. Pentru un videoclip convingător, acest lucru trebuie făcut pe fiecare cadru.

O altă modalitate de a face deepfakes folosește ceea ce se numește o rețea adversară generativă sau Gan. Un Gan pune doi algoritmi de inteligență artificială unul împotriva celuilalt. Primul algoritm, cunoscut sub numele de generator, este alimentat cu zgomot aleatoriu și îl transformă într-o imagine. Această imagine sintetică este apoi adăugată la un flux de imagini reale – de celebrități, să zicem – care sunt introduse în al doilea algoritm, cunoscut sub numele de discriminator. La început, imaginile sintetice nu vor arăta nimic ca fețele. Dar repetați procesul de nenumărate ori, cu feedback despre performanță, iar discriminatorul și generatorul se îmbunătățesc. Având în vedere suficiente cicluri și feedback, generatorul va începe să producă fețe complet realiste ale unor vedete complet inexistente.

Cine face deepfakes?
Toată lumea, de la cercetători academici și industriali la pasionați de amatori, studiouri de efecte vizuale și producători de porno. S-ar putea ca și guvernele să se implice în tehnologie, ca parte a strategiilor lor online de a discredita și perturba grupurile extremiste sau de a lua legătura cu persoane vizate, de exemplu.

De ce tehnologie ai nevoie?
Este greu să faci un deepfake bun pe un computer standard. Majoritatea sunt create pe desktop-uri high-end cu plăci grafice puternice sau mai bine cu putere de calcul în cloud. Acest lucru reduce timpul de procesare de la zile și săptămâni la ore. Dar este nevoie și de expertiză, nu în ultimul rând pentru a atinge videoclipurile completate pentru a reduce pâlpâirea și alte defecte vizuale. Acestea fiind spuse, o mulțime de instrumente sunt acum disponibile pentru a ajuta oamenii să facă deepfakes. Mai multe companii le vor face pentru dvs. și vor face toate procesările în cloud. Există chiar și o aplicație de telefonie mobilă, Zao , care permite utilizatorilor să își adauge fețele la o listă de personaje TV și filme pe care s-a antrenat sistemul.

Cum vezi un deepfake?
Devine mai greu pe măsură ce tehnologia se îmbunătățește. În 2018, cercetătorii americani au descoperit că fețele deepfake nu clipesc normal. Nicio surpriză acolo: majoritatea imaginilor arată oameni cu ochii deschiși, astfel încât algoritmii nu învață niciodată cu adevărat despre clipire. La început, părea un glonț de argint pentru problema detectării. Dar imediat ce cercetarea a fost publicată, au apărut deepfakes cu clipire. Așa este natura jocului: de îndată ce este dezvăluită o slăbiciune, aceasta este remediată.

Deepfakes de calitate slabă sunt mai ușor de observat. Sincronizarea buzelor ar putea fi proastă sau tonul pielii neuniform. Pot exista pâlpâiri în jurul marginilor fețelor transpuse. Și detaliile fine, cum ar fi părul, sunt deosebit de greu de redat bine pentru deepfakes, mai ales în cazul în care firele sunt vizibile pe margine. Bijuteriile și dinții redați prost pot fi, de asemenea, un cadou, la fel ca și efectele de lumină ciudate, cum ar fi iluminarea inconsecventă și reflexiile asupra irisului.

Guvernele, universitățile și firmele de tehnologie finanțează toate cercetările pentru a detecta falsurile profunde. Luna trecută a început prima Deepfake Detection Challenge , susținută de Microsoft, Facebook și Amazon. Acesta va include echipe de cercetare din întreaga lume care concurează pentru supremație în jocul de detectare deepfake.

Săptămâna trecută, Facebook a interzis videoclipurile deepfake care ar putea induce în eroare spectatorii să creadă că cineva „a spus cuvinte pe care nu le-au spus de fapt”, înaintea alegerilor din 2020 din SUA. Cu toate acestea, politica acoperă doar dezinformarea produsă utilizând AI, ceea ce înseamnă că „platformele superficiale” (a se vedea mai jos) sunt încă permise pe platformă.

Vor face ravagii deepfakes?
Ne putem aștepta la mai multe falsuri profunde care hărțuiesc, intimidează, degradează, subminează și destabilizează. Dar vor provoca deepfakes incidente internaționale majore? Aici situația este mai puțin clară. Un fals al unui lider mondial care apasă butonul roșu mare nu ar trebui să provoace armaghedon. Nici imaginile prin satelit false ale trupelor care se înghesuie la graniță nu vor provoca mari probleme: majoritatea națiunilor au propriile lor sisteme sigure de imagini de securitate.

Totuși, există încă un spațiu suficient pentru a face răutate. Anul trecut, acțiunile Tesla s-au prăbușit când Elon Musk a fumat pe o emisiune web live. În decembrie, Donald Trump a zburat mai devreme acasă de la o întâlnire a NATO, când au apărut imagini autentice despre alți lideri mondiali care se bateau joc de el. Vor fi falsificări plauzibile schimbarea prețurilor acțiunilor, influențarea alegătorilor și provocarea tensiunii religioase? Pare un pariu sigur.

Vor submina încrederea?
Impactul mai insidios al deepfakes-ului, alături de alte mass-media sintetice și știri false, este de a crea o societate de încredere zero, în care oamenii nu pot, sau nu se mai obosesc să distingă adevărul de falsitate. Și când încrederea este erodată, este mai ușor să ridici îndoieli cu privire la evenimente specifice.

Anul trecut, ministrul comunicațiilor din Camerun a respins drept știri false un videoclip despre care Amnesty International consideră că soldații din Camerun execută civili .

Donald Trump, care a recunoscut că s-a lăudat cu privire la apucarea organelor genitale ale femeilor într-o conversație înregistrată, a sugerat ulterior că banda nu era reală . În interviul prințului Andrew cu BBC cu Emily Maitlis, prințul a pus la îndoială autenticitatea unei fotografii făcute cu Virginia Giuffre, o împușcare pe care avocatul ei insistă că este autentică și nealterată.

„Este posibil ca problema să nu fie atât realitatea falsificată, cât și faptul că realitatea reală devine în mod plauzibil de negat”, spune prof. Lilian Edwards, un expert de frunte în dreptul internetului de la Universitatea Newcastle.

Pe măsură ce tehnologia devine mai accesibilă, deepfakes ar putea însemna probleme pentru instanțe, în special în bătăliile de custodie a copiilor și în tribunalele de ocupare a forței de muncă, unde evenimentele falsificate ar putea fi introduse ca dovezi. Dar prezintă și un risc personal de securitate: deepfakes pot imita date biometrice și pot păcăli sisteme care se bazează pe recunoașterea feței, vocii, venelor sau mersului. Potențialul pentru escrocherii este clar. Telefonați pe cineva din senin și este puțin probabil să transfere bani într-un cont bancar necunoscut. Dar dacă „mama” sau „sora” dvs. organizează un apel video pe WhatsApp și face aceeași solicitare?

Care este soluția?
În mod ironic, AI poate fi răspunsul. Inteligența artificială ajută deja la detectarea videoclipurilor false, dar multe sisteme de detecție existente prezintă o slăbiciune gravă: funcționează cel mai bine pentru vedete, deoarece se pot antrena cu ore de filmare disponibile gratuit. Firmele de tehnologie lucrează acum la sisteme de detectare care urmăresc să identifice falsurile ori de câte ori apar. O altă strategie se concentrează pe proveniența mass-media. Filigranele digitale nu sunt infailibile, dar un sistem de registru online blockchain ar putea deține o înregistrare a videoclipurilor, a imaginilor și a sunetului, astfel încât originile și orice manipulări să poată fi verificate întotdeauna.

Deepfakes sunt întotdeauna rău intenționate?
Deloc. Multe sunt distractive, iar altele sunt utile. Clonarea vocală a falsificărilor profunde poate restabili vocea oamenilor atunci când îi pierde din cauza bolii. Videoclipurile Deepfake pot însufleți galerii și muzee. În Florida, muzeul Dalí are un fals al pictorului suprarealist care își prezintă arta și face selfie-uri cu vizitatorii . Pentru industria de divertisment, tehnologia poate fi utilizată pentru a îmbunătăți dublarea filmelor în limbi străine și, mai controversat, pentru a reînvia actorii morți. De exemplu, regretatul James Dean va juca în Finding Jack, un film de război din Vietnam.

Cum rămâne cu falsurile superficiale?
Create de Sam Gregory la organizația pentru drepturile omului Witness, shallowfakes sunt videoclipuri care sunt fie prezentate în afara contextului, fie sunt tratate cu instrumente simple de editare. Sunt crude, dar fără îndoială, de impact. Un videoclip superficial care a încetinit discursul lui Nancy Pelosi și a făcut ca președintele SUA al Camerei să pară slăbit a ajuns la milioane de oameni pe social media.

Într-un alt incident, Jim Acosta, corespondent al CNN, a fost interzis temporar de la briefingurile de presă de la Casa Albă în timpul unui schimb aprins cu președintele. A apărut un videoclip de mică adâncime lansat ulterior, care îl arată să facă contact cu un intern care a încercat să scoată microfonul de pe el. Ulterior, a apărut că videoclipul a fost accelerat în momentul crucial , făcând mișcarea să pară agresivă. Permisul de presă al lui Costa a fost ulterior restabilit.

Partidul conservator din Marea Britanie a folosit tactici similare superficiali. În perioada premergătoare alegerilor recente, conservatorii au susținut un interviu TV cu deputatul laburist Keir Starmer pentru a face să pară că nu poate răspunde la o întrebare despre poziția Brexit a partidului. Cu deepfakes, provocarea răutăților este probabil probabil să crească. După cum spune Henry Ajder, șeful serviciilor de informații despre amenințări de la Deeptrace: „Lumea devine din ce în ce mai sintetică. Această tehnologie nu dispare. ”

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată.