Puncte cheie
- Deepfake-urile reprezintă pericole serioase pentru societate, incluzând propagarea informațiilor false, afectarea imaginii publice prin imitarea identităților și generarea de conflicte care pun în pericol securitatea națională.
- Deși inteligența artificială (IA) oferă instrumente pentru identificarea deepfake-urilor, acestea nu sunt perfecte, iar discernământul uman rămâne esențial în depistarea lor.
- Atât oamenii, cât și instrumentele de detecție bazate pe IA au puncte forte și puncte slabe în identificarea deepfake-urilor. O combinație între abilitățile acestora poate crește șansele de succes în detectarea și reducerea riscurilor generate de această tehnologie.
Deepfake-urile reprezintă un pericol la nivel social. Abilitatea de a distinge conținutul fals este crucială pentru a combate dezinformarea. Întrebarea este, pe măsură ce tehnologia IA devine mai performantă, pe cine ne putem baza pentru a detecta aceste deepfake-uri: pe oameni sau pe mașini?
Amenințările Reprezentate de Deepfake-uri
Odată cu evoluția tehnologiei IA, riscurile generate de deepfake-uri devin o amenințare tot mai mare pentru noi toți. Iată o listă a celor mai stringente probleme cauzate de deepfake-uri:
- Dezinformare: clipurile video și înregistrările audio fabricate pot răspândi informații false, cum ar fi știrile false.
- Uzurparea identității: prin imitarea identității unor persoane, deepfake-urile pot afecta reputația unor indivizi sau pot înșela pe cei care îi cunosc.
- Securitate națională: un scenariu catastrofal ar fi crearea de imagini sau înregistrări audio false cu un lider global care incită la conflicte.
- Tulburări sociale: imaginile și înregistrările audio false pot fi folosite pentru a stârni furie și a genera tulburări civile între anumite grupuri.
- Securitate cibernetică: infractorii cibernetici utilizează deja instrumente de clonare a vocii bazate pe IA pentru a ținti indivizi cu mesaje convingătoare de la persoane pe care le cunosc.
- Confidențialitate și consimțământ: utilizarea neautorizată a deepfake-urilor se bazează pe preluarea imaginii personale fără consimțământul persoanei respective.
- Încredere: dacă nu se poate face distincția între adevăr și fals, informațiile exacte devin la fel de puțin credibile.
Deepfake-urile vor deveni din ce în ce mai convingătoare, de aceea avem nevoie de instrumente și proceduri performante pentru a le identifica. IA oferă un astfel de instrument sub forma unor modele de detecție a falsurilor profunde. Totuși, la fel ca algoritmii concepuți pentru a identifica textul generat de IA, instrumentele de detectare a falsurilor profunde nu sunt perfecte.
În acest moment, discernământul uman este singura resursă pe care ne putem baza. Deci, suntem mai abili decât algoritmii în identificarea deepfake-urilor?
Pot Algoritmii să Detecteze Deepfake-urile Mai Bine Decât Oamenii?
Deepfake-urile reprezintă un risc atât de serios, încât marile companii de tehnologie și grupurile de cercetare dedică resurse considerabile cercetării și dezvoltării. În 2019, companii precum Meta, Microsoft și Amazon au oferit premii de 1.000.000 de dolari în cadrul unei Provocări de Detectare a Falsurilor Profunde, pentru cel mai precis model de detecție.
Modelul cu cea mai bună performanță a avut o acuratețe de 82,56% pe un set de date de videoclipuri publice. Însă, atunci când aceleași modele au fost testate pe un „set de date cutie neagră” de 10.000 de videoclipuri necunoscute, modelul cel mai performant a atins o precizie de doar 65,18%.
Există, de asemenea, numeroase studii care analizează performanța instrumentelor de detectare a falsurilor profunde bazate pe IA, comparativ cu capacitățile umane. Desigur, rezultatele variază de la un studiu la altul, dar, în general, oamenii fie egalează, fie depășesc rata de succes a instrumentelor de detectare a deepfake-urilor.
Un studiu din 2021 publicat în PNAS a constatat că „observatorii umani obișnuiți” au obținut o rată de precizie ușor mai mare decât instrumentele principale de detectare a falsurilor profunde. Cu toate acestea, studiul a mai evidențiat faptul că participanții umani și modelele IA au fost vulnerabile la tipuri diferite de erori.
Un aspect interesant, cercetările efectuate de Universitatea din Sydney au arătat că creierul uman este, în mod subconștient, mai eficient în identificarea deepfake-urilor decât eforturile noastre conștiente.
Detectarea Indiciilor Vizuale în Deepfake-uri
Știința detectării deepfake-urilor este complexă, iar analiza necesară depinde de natura materialului video. De exemplu, cunoscutul clip deepfake al liderului nord-coreean Kim Jong-un din 2020 este, practic, un videoclip cu o persoană care vorbește. În acest caz, cea mai eficientă metodă de detectare a deepfake-ului ar putea fi analiza mișcărilor buzelor și a fonemelor (sunete fonetice) pentru a identifica inconsecvențele.
Experții, privitorii obișnuiți și algoritmii pot efectua cu toții acest tip de analiză, deși rezultatele variază. MIT definește opt întrebări care ajută la identificarea videoclipurilor deepfake:
- Acordă atenție feței. Manipulările Deepfake performante sunt aproape întotdeauna transformări faciale.
- Fii atent la obraji și frunte. Pielea pare prea netedă sau prea încrețită? Îmbătrânirea pielii corespunde cu cea a părului și a ochilor? Deepfake-urile pot fi inconsistente în anumite aspecte.
- Analizează ochii și sprâncenele. Apar umbre acolo unde te-ai aștepta? Deepfake-urile ar putea să nu reflecte complet fizica naturală a unei scene.
- Examinează ochelarii. Există vreo reflexie? Este prea multă reflexie? Unghiul reflexiei se modifică atunci când persoana se mișcă? Încă o dată, Deepfake-urile ar putea să nu respecte în totalitate legile fizicii privind lumina.
- Fii atent la părul facial sau la lipsa acestuia. Părul facial pare real? Deepfake-urile pot adăuga sau elimina mustața, favoriții sau barba. Însă, Deepfake-urile ar putea să nu facă transformările părului facial într-un mod complet natural.
- Verifică alunițele faciale. Alunițele par autentice?
- Urmărește clipitul. Persoana clipește suficient sau prea des?
- Acordă atenție mișcărilor buzelor. Unele deepfake-uri se bazează pe sincronizarea buzelor. Mișcările buzelor par naturale?
Cele mai noi instrumente de detectare a falsurilor profunde bazate pe IA pot analiza aceiași parametri, cu diferite grade de succes. Oamenii de știință din domeniul datelor dezvoltă în mod constant și noi metode, cum ar fi detectarea fluxului natural de sânge de pe fețele persoanelor din videoclipuri. Noile abordări și îmbunătățirile metodelor existente ar putea duce la depășirea capacităților umane de către instrumentele de detectare a falsurilor profunde bazate pe IA în viitor.
Detectarea Indiciilor Audio în Deepfake-uri
Detectarea sunetului deepfake este o provocare complet diferită. În absența indiciilor vizuale din videoclipuri și a oportunității de a identifica inconsecvențele audio-vizuale, detectarea deepfake-urilor se bazează în mare măsură pe analiza audio (alte metode, cum ar fi verificarea metadatelor, pot ajuta în anumite cazuri).
Un studiu publicat de Colegiul Universitar din Londra în 2023 a arătat că oamenii pot identifica vorbirea deepfake în 73% din cazuri (în limbile engleză și mandarină). Similar cu cazul videoclipurilor deepfake, ascultătorii umani detectează adesea intuitiv modele nenaturale de vorbire în discursul generat de IA, chiar dacă nu pot preciza ce anume pare nenatural.
Semnele comune includ:
- Vorba neclară
- Lipsa expresivității
- Zgomot de fundal sau interferențe
- Incoerențe vocale sau de vorbire
- Lipsa de „plinătate” a vocii
- Pronunție prea „academică”
- Lipsa imperfecțiunilor (începuturi false, corecții, dregerea vocii etc.)
Algoritmii pot analiza, de asemenea, vorbirea pentru aceleași semnale deepfake, dar noile metode fac instrumentele mai eficiente. Cercetările efectuate de USENIX au identificat modele în reconstrucția tractului vocal de către IA care nu reușesc să imite vorbirea naturală. Astfel, generatoarele de voce bazate pe IA produc tracturi vocale înguste (aproximativ de dimensiunea unui pai) care se potrivesc audio, dar nu au mișcările naturale ale vorbirii umane.
Cercetări anterioare de la Institutul Horst Görtz au analizat sunetul autentic și deepfake în limbile engleză și japoneză, descoperind diferențe subtile în frecvențele mai înalte ale sunetului autentic comparativ cu sunetul deepfake.
Atât tractul vocal, cât și inconsecvențele frecvențelor înalte sunt perceptibile atât de ascultători, cât și de modelele de detecție bazate pe IA. În cazul diferențelor de frecvență înaltă, modelele IA ar putea, teoretic, să devină din ce în ce mai precise – deși același lucru s-ar putea spune și despre deepfake-urile bazate pe IA.
Atât Oamenii, Cât și Algoritmii Sunt Păcăliți de Deepfake-uri, Dar în Moduri Diferite
Studiile sugerează că oamenii și cele mai noi instrumente de detecție bazate pe IA sunt, în mod similar, capabile să identifice deepfake-urile. Ratele de succes pot varia între 50% și peste 90%, în funcție de parametrii testelor.
Astfel, atât oamenii, cât și mașinile sunt păcăliți de deepfake-uri în măsuri similare. Însă, esențial este faptul că suntem vulnerabili în moduri diferite, iar acesta ar putea fi cel mai mare avantaj în abordarea riscurilor generate de tehnologia deepfake. Combinarea punctelor forte ale oamenilor cu cele ale instrumentelor de detecție a falsurilor profunde va compensa punctele slabe ale fiecăreia și va îmbunătăți ratele de succes.
De exemplu, cercetările MIT au descoperit că oamenii au fost mai buni în a identifica deepfake-urile liderilor mondiali și celebrităților, comparativ cu modelele bazate pe IA. Studiul a evidențiat, de asemenea, că modelele bazate pe IA întâmpină dificultăți în procesarea înregistrărilor cu mai multe persoane, deși s-a sugerat că acest lucru ar putea fi rezultatul antrenamentului algoritmilor pe înregistrări cu un singur vorbitor.
În schimb, același studiu a constatat că modelele bazate pe IA au depășit oamenii în identificarea imaginilor de calitate scăzută (neclare, granulate, întunecate etc.), care ar putea fi folosite în mod intenționat pentru a înșela observatorii umani. De asemenea, metode recente de detecție bazate pe IA, cum ar fi monitorizarea fluxului sanguin în anumite regiuni faciale, includ analize de care oamenii nu sunt capabili.
Pe măsură ce sunt dezvoltate tot mai multe metode, capacitatea IA de a detecta semne pe care oamenii nu le pot vedea nu doar că se va îmbunătăți, ci se va îmbunătăți și capacitatea sa de a induce în eroare. Marea întrebare este dacă tehnologia de detectare a deepfake-urilor va continua să depășească tehnologia deepfake.
O Perspectivă Diferită în Epoca Deepfake-urilor
Instrumentele de detectare a deepfake-urilor bazate pe IA vor evolua în continuare, la fel ca și calitatea conținutului deepfake. Dacă abilitatea IA de a induce în eroare depășește capacitatea sa de a detecta (așa cum s-a întâmplat în cazul textului generat de IA), discernământul uman ar putea fi singura resursă disponibilă pentru a combate falsurile profunde.
Fiecare persoană are responsabilitatea de a învăța care sunt semnele specifice deepfake-urilor și cum să le detecteze. Pe lângă faptul că ne protejăm împotriva înșelătoriilor și amenințărilor la adresa securității, tot ceea ce discutăm și distribuim online este vulnerabil la dezinformare dacă pierdem capacitatea de a discerne adevărul.