- Inteligența artificială a devenit un instrument frecvent în comiterea fraudelor online, fiind folosită pentru deepfake-uri care par tot mai realiste și care induc în eroare victimele.
- Cele mai întâlnite scheme frauduloase din 2025 includ înșelătorii legate de investiții, falsificarea apelurilor caritabile, escrocherii romantice și impersonarea celebrităților.
- Fenomenul de dezinformare s-a amplificat prin crearea de materiale video false cu "experți" care susțin teorii nefondate în domenii științifice sau geopolitice.
„Inteligența artificială (AI) a avansat în ultimii ani, permițând crearea de videoclipuri și imagini extrem de realiste. În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă faptul că acestea sunt utilizate ca un instrument de inducere în eroare a oamenilor, cu scopul de a obține câștiguri financiare nelegale.
Deepfake-urile (videoclipuri false create cu AI) și imaginile generate artificial au devenit instrumentele preferate ale autorilor infracțiunilor din domeniul criminalității informatice, promovate masiv pe rețelele de socializare.
Cetățenii de bună-credință sunt induși în eroare de aceste „capcane” crezând că văd celebrități, experți financiari sau persoane aflate la nevoie”, a transmis Poliția Română printr-un comunicat emis recent.
Potrivit autorităților, cele mai frecvente moduri de operare întâlnite în anul 2025 sunt:
- Trading scam și investment fraud;
Videoclipuri deepfake cu oameni de afaceri, de notorietate sau cu politicieni care „recomandă” platforme de investiții crypto, forex sau „inteligență artificială miraculoasă” care promit multiplicarea banilor peste noapte. Victimele sunt direcționate către site-uri false unde depun bani spre a fi investiți și care, în realitate, ajung la autori prin diferite scheme de transfer de monede (virtuale sau fiat).
- Scam-uri caritabile;
Deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrități care cer donații urgente. Oamenii donează, prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori.
- Romance scam îmbunătățit cu ajutorul AI;
Utilizarea de către infractori a unor profiluri false cu poze și videoclipuri generate de AI cu persoane atractive din punct de vedere al aspectului și caracterului, prin intermediul cărora dezvoltă relații emoționale, apoi cer bani pentru „urgențe medicale” sau „bilete de avion”.
- CEO/CFO fraud (Business E-mail Compromise evoluat);
Utilizarea de către infractori de video-call-uri deepfake în care „șeful” cere transferuri urgente de bani.
- Impersonare celebrități pentru produse false;
Deepfake-uri cu diverse personalități care „oferă gratuit” produse.
„Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligență artificială, iar pierderile financiare globale se ridică la zeci de miliarde de dolari, anual”, mai precizează autoritățile în comunicat.
Un alt fenomen întâlnit tot mai des în mediul online este crearea de imagini cu persoane complet fictive, care nu există dar care par 100% reale (de obicei sunt prezentate foarte atrăgătoare și zâmbitoare). Aceste imagini sunt folosite pentru romance scams (escrocherii sentimentale), catfishing (falsificarea identității online), profiluri false de influenceri care promovează produse sau diverse tipuri de înșelătorii sau investiții, crearea de „martori” în povești false de investiții, șantaj sau chiar hărțuire (poze false cu persoane în situații compromițătoare).
Autoritățile atrag atenția și asupra fenomenelor de dezinformare în domenii științifice sau geopolitice, generate prin materiale video care reproduc fals declarații ale unor astronauți, cadre medicale, oameni de știință ori martori din zone de conflict, care susțin teorii nefondate sau situații inexistente. Aceste materiale ajung frecvent în trending și sunt redistribuite inclusiv de canale media care nu verifică sursa.
- Videoclipuri în care „astronauți NASA” mărturisesc în lacrimi că „aselenizarea a fost filmată în studio” și că „Pământul este plat”;
- „Oameni de știință renumiți” (de fapt deepfake-uri perfecte) care declară că „vaccinurile conțin cipuri 5G” sau că „încălzirea globală este o minciună”;
- „Medici celebri” care recomandă tratamente minune împotriva cancerului cu bicarbonat și lămâie;
- „Martori oculari” din Ucraina sau Orientul Mijlociu care povestesc atrocități inventate, cu fețe și voci perfect copiate.
În consecință, utilizarea AI în scopuri ilegale poate duce la pierderi financiare, traume emoționale, erodarea încrederii în media și instituții, manipulare politică și electorală, distrugerea reputației personale și chiar și poate amenința securitatea națională (deepfake-uri cu lideri politici care declară război etc.)
Cum verificăm dacă un videoclip este fals
Pentru videoclipuri deepfake, Poliția Română a explicat că trebuie să fim atenți la:
- clipitul ochilor: în multe deepfake-uri vechi, clipitul era anormal, însă, în anul 2025, acest aspect a fost îmbunătățit considerabil, dar încă apar inconsistențe;
- mișcările buzelor și sincronizarea cu sunetul: adesea nu sunt perfecte, mai ales în limbi non-engleză;
- iluminarea și umbrele: verifică dacă lumina de pe față se potrivește cu fundalul;
- reflexii în ochi și dinți: adesea lipsesc sau sunt nenaturale;
- mâini și degete: încă o slăbiciune majoră a multor modele AI - aspectul degetelor este anormal, ori sunt prea multe sau prea puține;
- caută artefacte: pete ciudate, blur în jurul feței, tranziții nenaturale;
- mâini și degete deformate (apar încă frecvent la deepfake-urile prezente în anul 2025);
- fundal inconsistent sau obiecte topite;
- ochi asimetrici sau pupile anormale;
- păr anormal sau îmbrăcăminte care nu are sens fizic;
- aspecte ale unor obiecte sau bunuri din videoclip sau imagine care par deformate;
- folosește reverse image search (Google Lens, TinEye) - dacă imaginea nu apare nicăieri altundeva înainte de data postării, e suspectă.
„În ultima perioadă, au fost reclamate mai multe fapte realizate cu inteligența artificială, fiind create mai multe videoclipuri false cu un ofițer de poliție sau cu alte persoane care se recomandă a fi consultanți financiari, în vederea inducerii în eroare a victimelor de a realiza investiții fictive sau a obține date financiare pentru a putea efectua, ulterior, tranzacții neautorizate.
În acest sens, pe lângă recomandările sus-menționate, facem precizarea că niciodată polițiștii nu vor apela cetățenii cu video, prin intermediul anumitor aplicații și cu atât mai mult nu vor face recomandări de investiții.
Totodată, polițiștii colaborează doar instituțional cu unitățile bancare, în vederea recuperării prejudiciilor sau în cadrul activităților desfășurate și nu vor face recomandări sau îndrumări cetățenilor în niciun fel, de genul „urmează să fiți sunați de banca X sau de vreo altă instituție financiară”, a mai precizat, pe final, Poliția Română.

Comentarii articol (0)