Aspecte Esențiale
- Fraudele cu clonarea vocală utilizează inteligența artificială pentru a crea copii vocale incredibil de autentice, amplificând emoțiile și senzația de urgență.
- Infractorii exploatează datele din social media pentru a concepe scenarii veridice și a manipula relațiile personale.
- Fiți vigilenți și învățați semnele de alarmă ale escrocheriilor cu clonare vocală AI; închideți apelurile și verificați mesajele de pericol.
E noapte târziu. Părinții tăi primesc un mesaj vocal alarmant de la tine, în care spui că ești într-o situație dificilă, ți s-a furat portofelul și ești blocat într-un loc necunoscut. Ai nevoie urgent de bani pentru a te putea întoarce acasă.
Vocea din mesaj pare a fi a copilului lor, fără nicio îndoială – dar în realitate, nu este. Este o clonă vocală creată de inteligența artificială, iar ei sunt ținta unei fraude moderne și, totodată, extrem de eficiente.
Cum funcționează o fraudă prin clonarea vocii AI?
Clonarea vocii permite crearea unor replici digitale foarte realiste ale vocii unei persoane. Această tehnică, denumită adesea audio deepfake, este realizată cu ajutorul instrumentelor de clonare vocală bazate pe inteligență artificială, cum ar fi ElevenLabs (vezi exemplul de clonare vocală AI de mai jos). Prin combinarea cu inteligența artificială generativă și sinteza vocală, vocea clonată poate reproduce emoții, subtilități, intonație și chiar sentimentul de frică.
Ca referință, puteți auzi cum sună Christian Cawley în realitate, vorbind în cadrul podcastului The Really Useful Podcast.
Pentru a crea o clonă vocală AI, este necesară doar o mică mostră de voce – adesea doar un minut sau mai puțin. Aceste mostre vocale sunt adesea extrase din postările publice de pe rețelele sociale, ceea ce face ca videobloggerii și influencerii să fie deosebit de vulnerabili, având în vedere calitatea audio înaltă și accesibilitatea conținutului lor.
Odată ce escrocii clonează mostra vocală, ei folosesc tehnologia text-to-speech sau chiar vorbirea în timp real pentru a crea apeluri și mesaje vocale false.
După ce accesează conturile de social media ale victimei și colectează informații personale, escrocul creează un scenariu plauzibil. Acesta poate fi o spitalizare, o arestare, un furt, o răpire – orice poate stârni teamă. Vocea clonată este apoi utilizată pentru a manipula un membru al familiei să creadă că persoana iubită este în pericol grav.
Realismul vocii și emoțiile, combinate cu șocul și urgența cererii, pot învinge scepticismul, ducând la decizii pripite de a transfera bani sau de a oferi informații confidențiale.
De ce sunt atât de eficiente fraudele prin clonarea vocii AI?
Similar majorității fraudelor care vizează familia și prietenii, frauda prin clonarea vocii AI este eficientă deoarece exploatează legăturile personale. Panica generată de primirea unui apel de ajutor de la o persoană dragă poate afecta judecata, determinând decizii impulsivă. Este o tactică asemănătoare cu frauda Quid Pro, însă efectul este amplificat de auzul vocii unei persoane apropiate.
Membrii familiilor persoanelor cu o prezență activă pe rețelele sociale sau care călătoresc sunt în mod special expuși riscului, deoarece situațiile lor oferă un context credibil pentru scenariul inventat de escroc. Infractorii vor colecta și folosi adesea datele personale ale victimelor din conturile lor publice de social media, făcând scenariile și mai convingătoare.
Semnele Cheie ale unei Fraude prin Clonarea Vocii AI
În ciuda complexității lor, fraudele cu clonarea vocii AI pot fi identificate prin anumite semne specifice:
- Urgență: escrocul vă va convinge că ceva grav se va întâmpla dacă nu acționați imediat.
- Inconsecvențe: Escrocii nu cunosc întotdeauna detaliile relației cu victima, așa că fiți atenți la neconcordanțe.
- Solicitări neobișnuite: cererile de transfer de bani către conturi bancare din străinătate sau plăți către portofele de criptomonede sunt tactici comune.
Este dificil să fii atent la aceste semne când ești pus în fața unui scenariu înfricoșător, dar acest lucru te poate ajuta să eviți să fii înșelat.
Ce să faci dacă bănuiești o fraudă prin clonarea vocii AI
Dacă primești un apel sau un mesaj vocal de la o persoană dragă care se află în pericol, rămâi calm. Escrocii se bazează pe panică și emoții, deoarece acestea vă fac mai vulnerabil la tacticile lor.
Dacă primești un apel telefonic
Dacă ai cea mai mică suspiciune că un apel ar putea fi o fraudă prin clonarea vocii, închide imediat. Nu oferi niciun fel de informație și nu interacționa cu escrocii. În schimb, sună persoana dragă înapoi la un număr cunoscut pentru a verifica veridicitatea apelului de urgență.
Continuarea conversației cu escrocii poate permite înregistrarea și clonarea vocii.
Dacă primești un mesaj vocal
Dacă escrocii au lăsat un mesaj vocal, salvează imediat sunetul pe telefon sau laptop. Această mostră audio poate fi utilizată într-un instrument de clasificare a vorbirii AI pentru a stabili dacă este o voce umană. Aceste clasificatoare de vorbire AI funcționează similar cu detectoarele de scriere AI. Introducând fișierul audio, clasificatorul îl va eticheta ca fiind uman sau generat de AI.
Un instrument excelent pentru această verificare este clasificatorul de vorbire ElevenLabs. ElevenLabs este platforma de bază pentru majoritatea sistemelor de clonare AI, fiind un instrument ideal pentru a verifica dacă o voce a fost clonată. Iată cum îl poți folosi:
În exemplul de mai jos, un mesaj vocal înregistrat de o persoană a fost încărcat în clasificator. Se poate observa că a fost marcat cu o probabilitate de 2% de a fi manipulat.
În următorul exemplu, același mesaj a fost generat cu un instrument de clonare vocală AI. Pentru urechea umană, cele două voci sunt greu de diferențiat. Cu toate acestea, instrumentul l-a marcat cu o probabilitate de 98% de a fi generat de inteligența artificială.
Deși nu te poți baza 100% pe acest clasificator, el poate confirma suspiciunile privind folosirea unei voci clonate. De asemenea, trebuie să contactezi persoana dragă la un număr cunoscut pentru a verifica.
Prevenirea este cea mai bună apărare împotriva fraudelor cu clonarea vocii AI
Uneori, cea mai bună apărare împotriva unei fraude high-tech este o soluție low-tech.
Stabiliți un cuvânt cheie offline, cunoscut doar de familie și prieteni. În cazul unui apel panicat, folosirea acestui cuvânt poate fi o modalitate sigură de a confirma identitatea apelantului.
Nu în ultimul rând, evitarea postării informațiilor personale pe rețelele sociale este un pas important pentru a te asigura că escrocii nu pot colecta suficiente date pentru a construi un scenariu credibil. Amintește-ți: dacă nu vrei ca un lucru să fie cunoscut de toată lumea, cel mai bine este să nu îl distribui pe rețelele sociale.