Avansul Inteligenței Artificiale și Impactul său Negativ
Inteligența artificială (AI) a evoluat semnificativ în ultimii ani, facilitând crearea de videoclipuri și imagini extrem de realiste. Deși aceste tehnologii sunt utilizate predominant în domeniul divertismentului, ele au și un aspect negativ, fiind folosite ca instrumente de manipulare pentru obținerea de câștiguri financiare ilegale, conform unor informații recente.
Utilizarea Deepfake-urilor în Infracționalitate
Deepfake-urile, adică videoclipurile false generate cu ajutorul AI, și imaginile create artificial au devenit preferate de infractorii din domeniul criminalității informatice, fiind promovate intens pe rețelele de socializare. Cetățenii bine intenționați sunt adesea păcăliți de aceste capcane, crezând că interacționează cu celebrități, experți financiari sau persoane aflate în dificultate.
Moduri de Operare Frecvente în 2025
Printre cele mai comune metode de fraudă identificate în anul 2025 se numără:
Trading Scam și Fraudă de Investiții
Videoclipuri deepfake cu oameni de afaceri sau politicieni care „recomandă” platforme de investiții în criptomonede, forex sau „inteligență artificială miraculoasă”, promițând multiplicarea banilor într-un timp scurt. Victimele sunt direcționate spre site-uri false unde depun sume de bani, care ajung ulterior la infractori prin diverse scheme de transfer.
Deepfake-uri cu Cereri de Donații
Există deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrități care solicită donații urgente. Oamenii sunt înșelați prin link-uri false, iar banii ajung direct în mâinile infractorilor.
Romance Scam cu AI
Infractorii folosesc profiluri false, create cu imagini și videoclipuri generate de AI cu persoane atrăgătoare, pentru a construi relații emoționale. Aceștia cer ulterior bani pentru „urgențe medicale” sau „bilete de avion”.
Frauda CEO/CFO
Infractorii utilizează apeluri video deepfake în care „șeful” solicită transferuri urgente de bani.
Impersonarea Celebrităților
Deepfake-uri cu diverse personalități care „oferă gratuit” produse.
Pierderi Financiare și Alte Consecințe
Statisticile din 2025 arată o creștere alarmantă a tentativelor de fraudă folosind deepfake-uri, generând pierderi financiare globale de zeci de miliarde de dolari anual. Un alt fenomen observat este crearea de imagini cu persoane fictive, generate de tool-uri, care par perfect reale, dar care nu există în realitate.
Aceste imagini sunt utilizate în moduri de operare precum:
- Romance scams și catfishing;
- Profiluri false de influenceri care promovează produse sau diverse înșelătorii;
- Crearea de „martori” în povești false de investiții;
- Șantaj și hărțuire cu poze false.
Consecințele Utilizării Ilegale a AI
Utilizarea inteligenței artificiale în scopuri ilegale poate provoca diverse consecințe, atât financiare cât și sociale, cum ar fi:
- Pierderi financiare directe;
- Traume emoționale;
- Erodarea încrederii în mass-media și instituții;
- Manipulare politică și electorală;
- Distrugerea reputației personale;
- Amenințări la adresa securității naționale.
În acest context, se recomandă cetățenilor să fie prudenți și să se informeze corespunzător.
Măsuri de contracarare și protecție împotriva videoclipurilor deepfake
Pentru a identifica videoclipurile deepfake, este important să se verifice următoarele aspecte:
- Clipitul ochilor: Deși tehnologia a avansat, în unele cazuri, clipitul poate rămâne anormal.
- Mișcările buzelor și sincronizarea audio: Acestea nu sunt întotdeauna precise, în special în cazul limbilor non-engleză.
- Iluminarea și umbrele: Este esențial să se verifice dacă iluminarea feței este consistentă cu fundalul.
- Reflexii în ochi și dinți: Acestea pot fi absente sau să pară nenaturale.
- Mâini și degete: Aceasta reprezintă o slăbiciune semnificativă, cu degete care pot apărea anormale sau în număr greșit.
- Artefacte vizuale: Căutați pete ciudate sau blur în jurul feței.
- Deformări ale mâinilor și degetelor: Aceste anomalii sunt frecvente în videoclipurile deepfake din 2025.
- Fundal inconsistent: Obiecte care par distorsionate sau topite pot indica un deepfake.
- Ochi asimetrici: Pupilele anormale sunt un semn de avertizare.
- Păr și îmbrăcăminte anormale: Aspecte care nu respectă legile fizicii sunt suspecte.
- Obiecte deformate: Elemente din videoclipuri sau imagini care par distorsionate trebuie investigate.
- Căutare inversă a imaginilor: Folosind instrumente precum Google Lens sau TinEye, verificați dacă imaginea a fost folosită anterior.
Măsuri de protecție pentru cetățeni
În plus, se recomandă următoarele măsuri pentru prevenirea înșelăciunilor:
- Fiți sceptici la oferte care par prea frumoase pentru a fi adevărate, cum ar fi îmbogățirea rapidă sau cadouri de la celebrități.
- Evitați să faceți clic pe linkuri din reclame sau mesaje nesolicitate.
- Nu transferați bani persoanelor cunoscute exclusiv online.
- Verificați sursa oficială a informației; căutați conturile verificate ale persoanelor publice.
- Activați autentificarea în doi pași (2FA) pentru conturile importante, folosind aplicații de autentificare dedicate.
- Raportați conținutul suspect pe platformele corespunzătoare.
- Utilizați extensii de browser care pot detecta deepfake-uri.
- În cazul în care ați fost victima unei înșelăciuni online, contactați imediat autoritățile pentru a ajuta la investigarea cazului.
Dezinformarea prin videoclipuri A.I.
În afară de escrocheriile financiare și caritabile, infractorii și grupările de dezinformare utilizează videoclipuri generate de inteligența artificială pentru a răspândi informații false despre știință. Exemplele includ:
- Videoclipuri în care „astronauți NASA” pretind că aselenizarea a fost o simulare.
- „Oameni de știință” care afirmă că vaccinurile conțin cipuri 5G sau că încălzirea globală este o minciună.
- „Medici” care promovează tratamente neeficace pentru cancer.
- „Martori oculari” care relatează fapte inventate din zone de conflict.
Aceste tipuri de conținut nu sunt doar simple postări pe grupuri de conspirație, ci devin din ce în ce mai populare pe platformele de socializare, fiind distribuite de conturi cu un număr mare de urmăritori și chiar preluate de mass-media.
Reclamarea utilizării inteligenței artificiale în fraude
Recent, au fost raportate numeroase incidente legate de utilizarea inteligenței artificiale, care au dus la crearea de videoclipuri false cu ofițeri de poliție sau persoane ce se prezintă drept consultanți financiari. Scopul acestor acțiuni este de a induce în eroare victimele, determinându-le să efectueze investiții fictive sau să furnizeze date financiare necesare pentru realizarea unor tranzacții neautorizate.
Atenționări pentru cetățeni
În acest context, se subliniază că polițiștii nu vor contacta niciodată cetățenii prin intermediul videoclipurilor, utilizând diverse aplicații, și cu atât mai puțin nu vor oferi recomandări de investiții.
De asemenea, polițiștii colaborează exclusiv prin canale oficiale cu instituțiile bancare, având ca scop recuperarea prejudiciilor sau desfășurarea unor activități specifice. Aceștia nu vor oferi sfaturi sau indicații cetățenilor legate de eventuale apeluri din partea băncilor sau altor instituții financiare.
Identificarea persoanelor implicate
În continuare, sunt prezentate imagini cu două persoane care pretind că fac parte din Poliția Română. Așa cum s-a menționat anterior, este evident că îmbrăcămintea primei persoane nu corespunde unei uniforme de poliție, iar insigna de pe umeri nu este recunoscută în structura Poliției Române, care utilizează stele pentru a reprezenta gradele.
