7 escrocherii false profunde comune de care ar trebui să fii conștient

Listarea celor mai populare escrocherii Deepfake.

Să începem cu această adresă „specială” a lui „POTUS” Joe Biden:

Aceasta seamănă puțin cu ceea ce poate arăta o înșelătorie falsă (voce) profundă. De fapt, acesta a fost gratuit Instrument de clonare a vocii AIși am petrecut puțin peste cinci minute scriind (cu ChatGPT) și lipind textul pentru a-l converti în discursul (a lui Biden).

Cu toate acestea, înșelătoriile false profunde sunt mai sofisticate decât acestea. Tot ce aveți nevoie sunt câteva fotografii, videoclipuri sau audio de înaltă calitate ale subiectului (victima) și o placă grafică puternică pentru a începe.

Dar nu suntem aici pentru a discuta cum să creăm videoclipuri deepfake. Nu este vorba nici despre depistarea deepfake-urilor.

În schimb, acest articol împărtășește o scurtă introducere despre deepfakes și menționează câteva astfel de înșelătorii de care ar trebui să te ferești.

Ce sunt Deepfake-urile?

Deepfake combină doi termeni: Deep (din deep learning, care este folosit pentru a le crea) și fake (indicând natura rezultatului).

Pe scurt, algoritmi de învățare profundă sunt implementați pentru a crea imagini convingătoare, conținut audio sau video din conținut original de înaltă rezoluție.

Acesta este un exemplu clasic de deepfake și se simte eficient într-o anumită măsură. Dar totuși, are cinci ani și această tehnologie avansează într-un ritm rapid.

Și acest lucru nu este întotdeauna făcut pentru distracție sau pentru a prezenta abilitățile AI ale cuiva. Un astfel de exemplu grav este atunci când „Dl. Volodymyr Zelensky” este rugat de forțele sale să se predea în curs de desfășurare Războiul Rusia-Ucraina.

Din păcate, acesta nu este un astfel de exemplu. Conform Raportul Regula Forensics 202337% dintre organizațiile globale s-au confruntat cu fraude vocale Deepfake, 29% s-au confruntat cu escrocherii video sintetice și 46% au trecut prin tentative de furt de identitate.

În consecință, nu este vorba doar de divertisment, iar deepfake-ul este utilizat pe scară largă în răspândirea dezinformării și este folosit greșit în o mulțime de alte moduri, care pot fi periculoase și supărătoare pentru victime.

  Cum să remapați butoanele de pe Chromecast cu telecomanda Google TV

În plus, combaterea conținutului deepfake nu este ușoară. Acestea sunt efectele secundare ale progreselor semnificative ale tehnologiei AI și ale faptului că astfel de instrumente sunt acum disponibile pe scară largă pentru uz public.

Prin urmare, cea mai mare și cea mai comună apărare pe care o avem este conștientizarea.

Deci, să lucrăm la aceste aspecte și să aruncăm o privire la tipurile de escrocherii deepfake.

Tipuri de escrocherii Deepfake

În funcție de conținut și țintă, înșelătoriile deepfake pot fi împărțite în câteva forme, cum ar fi:

  • Uzurparea identității video
  • Interviuri false
  • Știri false
  • Frauda vocală
  • Capcanarea mierii
  • Relații Clienți
  • Mărturii

Secțiunile ulterioare vorbesc despre acestea în detaliu și despre unele dintre modificările lor.

Uzurparea identității video

Aceasta este o înșelătorie deepfake bine-cunoscută în care vedem un videoclip inventat, care seamănă în general cu o țintă de profil înalt. O victimă tipică poate fi un președinte al unei țări (cum ar fi deepfake-ul Obama), un star popular de la Hollywood sau un CEO al unei companii binecunoscute.

Ceea ce îi face ținte ușoare este disponibilitatea publică a imaginilor, discursurilor lor etc., deoarece instrumentele care creează videoclipuri deepfake funcționează bine cu inputuri diferite, ilustrând diferite game de emoții, unghiuri faciale, condiții de iluminare, fundal și multe altele.

Intenția unei astfel de uzurpare a identității poate fi distracție simplă, o încercare de șantaj, motivație politică, defăimare sau orice altceva.

În cazuri rare, s-ar putea vedea videoclipuri deepfake ale membrilor familiei care cer bani sau acces la bunuri de valoare.

Interviuri false

Inutil să spunem că interviurile false care utilizează tehnologia deepfake vizează poziții complet la distanță, de lucru de acasă. Aceste escrocherii încearcă videoclipuri deepfake în timp real prin programe de conferințe precum Zoom.

Pe lângă faptul că obține un candidat slab, compania țintă riscă să-și expună activele unei persoane frauduloase. Și pe baza relațiilor companiei, acest lucru nu numai că le poate afecta propriile resurse, dar poate pune în pericol și interesele țării lor.

  6 cele mai bune soluții de găzduire OpenCart pentru un magazin mic până la mare

Un obiectiv mai simplu al interviurilor deepfake poate fi să fiți plătit în valute de mare valoare.

Pe de altă parte, escrocii pot percepe candidaților nevinovați o taxă de interviu pentru a-i aduce în fața „magnaților din industrie” pentru acea șansă mare la joburile lor de vis.

Știri false

Cea mai comună înșelătorie deepfake este știrile false. Astfel de campanii de dezinformare online prezintă riscuri care se pot dovedi fatale în situații dificile precum revolte sau războaie.

Nu numai asta, poate defăima personalități publice atunci când replica lor deepfake face comentarii pe care nu le-au făcut niciodată în realitate.

Ceea ce ajută propaganda este rețelele de socializare și platformele de streaming precum YouTube, care ajută astfel de știri false să se răspândească ca focul. În cele din urmă, creează o atmosferă în care utilizatorii obișnuiți devin confuzi cu privire la autenticitatea a tot ceea ce văd.

Frauda vocală

Similar cu videoclipurile și imaginile deepfake, vocea sintetică este o altă adăugare la lista acestor trucuri bazate pe tehnologie.

Într-un astfel de caz, Jennifer DeStefano, un rezident al Arizona, și-a auzit fiica de 15 ani plângând la telefon, în timp ce o voce masculină a cerut 1 milion de dolari pentru eliberare. Mama era convinsă că copilul ei era în pericol. Înainte să se poată gândi la plată, prietena lor l-a sunat pe soțul ei, confirmând că fiica ei este în siguranță.

Doamna DeStefano a povestit mai târziu încercarea, că a crezut pe deplin vocea, nu doar după sunetul ei, ci și prin tonalitatea generală, care se potrivea exact cu modul în care vorbește de obicei fiica ei.

Aceasta este clonarea vocii și se face cu ajutorul probelor audio brute de la sursă.

Capcane cu miere

Conform definiției tradiționale a capcanei de miere, este locul în care subiectul este convins să intre într-o relație pentru a stoarce informații sensibile. Honeytraps vizează, de obicei, entități de profil înalt, cum ar fi cineva care lucrează în forțele armate, oficiali guvernamentali de top, politicieni de serviciu etc.

  Cum să găsiți subtitrări pentru un fișier media

Cu tehnologia deepfake, aceste honeytrapes sunt în mare parte online și pot fi executate de oricine la scară. Aceasta înseamnă că victima ar putea primi solicitări de relație de la parteneri atrăgători prin intermediul rețelelor sociale, care devin rapid intime cu scopul final de extorcare financiară sau informațională.

Astfel de escrocherii deepfake sunt, în general, operațiuni râvnite, care își parcurg cursul înainte de a întinde capcana finală.

Relații Clienți

Escrocherii de asistență tehnică sunt foarte frecvente. S-ar putea să fi auzit despre înșelătorii în care un tip „Microsoft” îți cere să plătești pentru a rezolva problemele „grave” ale computerului tău.

Înainte de deepfake, accentele lor sau tiparele de vorbire neobișnuite au dat jos încercările rău intenționate. Dar acum, acești escroci au superputeri AI care pot păcăli cu ușurință utilizatorii nevinovați făcându-le să creadă că, de fapt, vorbesc cu un reprezentant legitim al companiei.

Mărturii

Mulți dintre noi citim recenziile clienților înainte de a cumpăra orice produs. La fel, verificarea mărturiilor video este un alt obicei de cumpărături care s-a dovedit util până acum.

Acest tip de escrocherie deepfake va face ca mai mulți oameni să garanteze un produs prost, să modifice deciziile de cumpărare și să irosească banii și timpul clienților.

Mai sunt multe!

Ce vezi pe internet în afară de text?

Aș spune videoclipuri, imagini și audio. Toate acestea pot fi manipulate cu această tehnologie AI, făcând internetul un teren propice pentru fraudă într-un viitor nu atât de îndepărtat. În plus, crearea de deepfake devine mai ușoară așa cum vorbim despre asta, ceea ce face dificil pentru un utilizator de internet mediu să rămână „corect” informat.

Într-o astfel de situație, în care nu există aproape nimic care să oprească utilizarea greșită pe scară largă a tehnologiei, ar trebui cel puțin să încercăm să rămânem la curent.

PS: Venind la aplicațiile sale distractive, aveți aceste aplicații deepfake pentru a crea unele dintre cele mai bune meme pentru a lua cu asalt rețelele sociale.