AI-ul care îți poate imita vocea. Cum poți fi păcălit în 30 de secunde
Nu mai este vorba despre mesaje suspecte sau apeluri evidente de tip scam. În 2026, escrocii folosesc inteligența artificială pentru a imita perfect vocea unei persoane cunoscute. Rezultatul: apeluri care par reale, emoții puternice și decizii luate în grabă, cu consecințe financiare serioase.
Publicat de Cosmin Meca, 13 aprilie 2026, 10:28
Tehnologia de clonare vocală, cunoscută și sub numele de „audio deepfake”, permite generarea unei voci artificiale care imită aproape perfect o persoană reală. Sistemele moderne analizează tonul, accentul și modul de vorbire, iar rezultatul este o voce greu de diferențiat de cea originală.
Ceea ce face situația cu adevărat periculoasă este cât de puțin material este necesar. În unele cazuri, doar câteva secunde de înregistrare sunt suficiente pentru a crea o copie credibilă a vocii.
Acele câteva secunde pot fi obținute extrem de ușor. Infractorii caută clipuri video pe rețele sociale, interviuri, podcasturi sau chiar mesaje din căsuța vocală. Odată colectată mostra, aceasta este introdusă într-un sistem AI care învață rapid caracteristicile vocii și poate genera fraze noi, pe care persoana nu le-a spus niciodată.
După ce vocea este clonată, începe partea periculoasă: apelul. De cele mai multe ori, scenariul este simplu și eficient. Victima primește un telefon de la cineva care sună exact ca un copil, un partener sau un coleg. Vocea este panicată și transmite un mesaj urgent: un accident, o arestare sau o problemă gravă. Urmează cererea de bani sau de date sensibile.
Acest tip de fraudă funcționează pentru că exploatează emoțiile. Oamenii nu mai au timp să verifice și reacționează instinctiv. În multe cazuri, între apel și transferul banilor trec doar câteva minute.
Fenomenul a crescut rapid în ultimii ani, pe măsură ce tehnologia a devenit mai accesibilă și mai ușor de folosit. Dacă în trecut astfel de metode necesitau resurse importante, astăzi pot fi utilizate de aproape oricine are acces la instrumente AI.
Mai mult, nu este vorba doar despre persoane fizice. Companiile sunt și ele ținte. Există situații în care angajați au transferat sume importante după ce au primit apeluri de la „șefi” ale căror voci au fost imitate aproape perfect.
Problema este amplificată de faptul că oamenii nu pot face diferența. Pentru majoritatea, o voce cunoscută este suficientă pentru a avea încredere, iar acest lucru este exploatat de infractori.
În unele cazuri, escrocheriile merg și mai departe. Există scenarii de „răpiri false”, în care victima aude la telefon o voce care pare a fi a unui membru al familiei, cerând ajutor disperat. Impactul emoțional este puternic, iar reacțiile sunt rapide și, de multe ori, fără verificare.
Un alt tip de fraudă implică folosirea vocii clonate pentru a confirma tranzacții sau pentru a autoriza plăți. Practic, vocea devine o „semnătură falsă”, iar victimele nici nu își dau seama când sunt compromise conturile.
În acest context, fraudele bazate pe inteligență artificială devin tot mai sofisticate și mai greu de detectat. Automatizarea și viteza cu care pot fi generate aceste atacuri cresc semnificativ riscul pentru utilizatori.
Totuși, există câteva reguli care pot face diferența. Apelurile urgente, care cer acțiune imediată, sunt primul semnal de alarmă. Presiunea emoțională este folosită intenționat pentru a bloca gândirea logică.
O regulă esențială este verificarea pe un alt canal. Dacă primești un apel suspect, închide și sună tu persoana respectivă, folosind un număr cunoscut, nu cel din apel.
De asemenea, limitarea expunerii vocii în mediul online poate reduce riscul. Cu cât există mai puține înregistrări publice, cu atât este mai dificil pentru infractori să creeze o copie convingătoare.
Specialiștii recomandă și stabilirea unui „cod de siguranță” în familie. Un cuvânt sau o întrebare cunoscută doar de apropiați poate ajuta la confirmarea identității într-o situație suspectă.
Inteligența artificială a depășit deja nivelul la care oamenii pot face diferența între real și fals în toate situațiile. Clonarea vocii este una dintre cele mai clare dovezi în acest sens.
Într-un astfel de context, vigilența devine esențială. Pentru că, uneori, nu mai este vorba despre dacă vei primi un astfel de apel, ci când.