Mihaly, Roxana (2025), Rolul AI în transformarea jocului electoral: DeepFake și Fake News ca factori cheie, Intelligence Info, 4:3, https://www.intelligenceinfo.org/rolul-ai-in-transformarea-jocului-electoral-deepfake-si-fake-news-ca-factori-cheie/
The Role of AI in Shaping Electoral Processes: Deepfake and Fake News as Key Factors
Abstract
Artificial Intelligence (AI) has radically reshaped the landscape of modern electoral processes, introducing both opportunities and challenges in political communication. The emergence of DeepFake technology and the proliferation of Fake News have raised significant concerns regarding the integrity of democratic systems, particularly in the realm of voter influence and public opinion manipulation. These AI-driven tools have the potential to amplify misinformation, distort political narratives, and undermine trust in electoral institutions. Through a critical analysis of key events, such as the Cambridge Analytica scandal, and recent cases of DeepFake content, this study examines the mechanisms through which these technologies have been used to influence political campaigns. Additionally, the research explores the legislative responses aimed at curbing the malicious use of DeepFake and Fake News, seeking to understand the effectiveness and limitations of current legal frameworks in addressing the growing threat to democratic processes.
Keywords: Fake News, DeepFake, algorithmic manipulation, Big Data, IA
Rezumat
Inteligența Artificială (IA) a remodelat radical peisajul proceselor electorale moderne, aducând atât oportunități, cât și provocări în comunicarea politică. Apariția tehnologiei Deepfake și proliferarea Fake News au ridicat preocupări semnificative privind integritatea sistemelor democratice, în special în ceea ce privește influențarea voturilor și manipularea opiniei publice. Aceste instrumente bazate pe IA au potențialul de a amplifica dezinformarea, de a distorsiona narațiunile politice și de a submina încrederea în instituțiile electorale. Printr-o analiză critică a unor evenimente cheie, precum scandalul Cambridge Analytica, și a unor cazuri recente de conținut DeepFake, acest studiu examinează mecanismele prin care aceste tehnologii au fost utilizate pentru a influența campaniile electorale. În plus, cercetarea explorează răspunsurile legislative menite să combată utilizarea malițioasă a DeepFake și Fake News, încercând să înțeleagă eficiența și limitele cadrelor legale actuale în fața amenințărilor în continuă creștere la adresa proceselor democratice.
Cuvinte cheie: Fake News, DeepFake, manipulare algoritmică, Big Data, IA
INTELLIGENCE INFO, Volumul 4, Numărul 3, Septembrie 2025, pp. xxx
ISSN 2821 – 8159, ISSN – L 2821 – 8159,
URL: https://www.intelligenceinfo.org/rolul-ai-in-transformarea-jocului-electoral-deepfake-si-fake-news-ca-factori-cheie/
© 2025 Roxana MIHALY. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.
Rolul AI în transformarea jocului electoral: DeepFake și Fake News ca factori cheie
Roxana MIHALY[1]
roxanamihaly@gmail.com
[1] Doctor în Științe Politice (Sapienza – Università di Roma)
Introducere
Revoluția digitală din ultimul deceniu a redimensionat fundamental modul de desfășurare a competițiile electorale, aducând inevitabil în prim-plan inteligența artificială (IA) ca instrument de manipulare. Alegerile electorale nu mai sunt mediate exclusiv de mass-media tradițională și de campanii la firul ierbii, ci tot mai mult de algoritmi din social media, sisteme de micro-targetare a alegătorilor, la toate acestea având o contribuție importantă și conținutul generat mai nou de IA. De cele mai multe ori folosirea acestor mecanisme au potențialul de a optimiza comunicarea politică – de pildă, prin analizarea rapidă a opiniei publice sau personalizarea mesajelor către diferite segmente de alegători – însă ele deschid inevitabil și ușa unor forme subtile de manipulare și dezinformare cu impact profund asupra proceselor democratice. În tot acest context securitatea informațiilor devine o problemă majoră cu care ne confruntăm, „indiferent de dimensiunea organizației odată cu creșterea explozivă a fluxului informațional.”[1]
Manipularea reprezintă un fenomen omniprezent în societatea contemporană, având un impact semnificativ asupra indivizilor, dintre care mulți nu conștientizează faptul că sunt supuși acestui proces. Una dintre cauzele principale ale vulnerabilității populației la manipulare este lipsa unei atitudini critice față de informațiile prezentate în mass-media. De cele mai multe ori, publicul tinde să accepte în mod implicit veridicitatea mesajelor vehiculate în spațiul public, fără a verifica sursele sau a analiza conținutul acestora. În plus, reacțiile emoționale accentuate ale opiniei publice contribuie la perpetuarea și amplificarea fenomenului.
Astfel, putem spune că, un factor de risc și mai semnificativ este reprezentat de dezinformarea din mediul digital, facilitată de rețelele de socializare, care permit propagarea rapidă a unor informații fie false, fie scoase din context, având un impact major asupra formării opiniilor colective.
Evoluția tehnologică a redefinit în mod aproape radical procesul de comunicare politică și în România, rețelele de socializare deschizând oportunități pentru o generație de actori politici care și-au adaptat mesajele la stilul de comunicare al tinerelor generații, care sunt din ce în ce mai conectate la mediul digital. Totodată, aceste noi forme de comunicare au adus cu sine și riscuri, precum manipularea opiniei publice prin mesaje personalizate, dezinformare sau manipularea percepției alegătorilor.
Manipularea Digitală în Alegeri
Odată cu apariția internetului în anul 1983[2] și evoluția ulterioară a mediului virtual, comunicarea a suferit o transformare constantă. Această explozie de accesibilitate la informații poate fi comparată cu revoluția provocată de inventarea tiparului cu litere mobile de către Johann Gutenberg.[3] Progresul tehnologic accelerat, în special dezvoltarea internetului și a dispozitivelor mobile, a transformat radical modul în care oamenii comunică și interacționează. Accesul la informație și participarea la dezbateri politice au devenit semnificativ mai accesibile datorită expansiunii internetului și a rețelelor sociale. Frontierele geografice și barierele de comunicare au fost reduse considerabil, creând astfel un context favorabil pentru actorii politici, care se pot conecta direct cu cetățenii și își pot promova mesajele fără intermediari tradiționali, precum mass-media clasică.
Cu toate acestea, digitalizarea accelerată a mediului politic a generat și provocări majore, dintre care una dintre cele mai relevante este proliferarea fake news – informații false sau înșelătoare menite să influențeze opinia publică. Spre deosebire de DeepFake, care presupune o analiză riguroasă și aprofundată a evenimentelor, știrile false sunt concepute pentru a apela la emoțiile audienței și pentru a favoriza anumite agende politice. În tot acest context IA joacă un rol din ce în ce mai important în acest ecosistem informațional, având atât efecte pozitive, cât și riscuri considerabile. Pe de o parte, IA facilitează detectarea manipulării prin algoritmi de fact-checking și identificarea conținutului înșelător. Pe de altă parte, tehnologiile precum DeepFake contribuie la fabricarea unor materiale media greu de deosebit de realitate, permițând actorilor politici și altor actori să manipuleze percepția publică.
Scandalul Cambridge Analytica
Unul dintre primele și poate cele mai notabile exemple de manipulare digitală a fost scandalul legat de Cambridge Analytica, o companie de consultanță politică ce a exploatat printr-o aplicație creată de Aleksandr Kogan, datele personale a peste 87 de milioane de utilizatori Facebook[4] pentru a construi profile psihologice și a influența votul în alegerile prezidențiale din SUA (2016) și în referendumul pentru Brexit.[5] Acest caz a evidențiat riscurile majore asociate cu exploatarea IA și a datelor personale în campaniile politice și a demonstrat modul în care rețelele sociale pot deveni instrumente de manipulare la scară largă.[6] Aplicație creată de Aleksandr Kogan sub pretextul unei cercetări academice create sub cupola Cambridge Analytica a avut rolul de a colecta datele utilizatorilor Facebook și a prietenilor acestora. Informații colectate fiind mai apoi procesate pentru a construi profile psihologice precise, permițând direcționarea de mesaje personalizate către grupuri țintă. Aplicația s-a bazat pe trei mecanisme esențiale:
- Monitorizarea comportamentului online – analiza interacțiunilor digitale (like-uri, comentarii, distribuiri) pentru a înțelege interesele și emoțiile utilizatorilor.
- Utilizarea algoritmilor de profilare – clasificarea indivizilor pe baza preferințelor și a tendințelor comportamentale pentru personalizarea mesajelor politice.
- Exploatarea AI și a datelor masive (Big Data) – generarea de conținut targetat emoțional, menit să declanșeze reacții specifice și să influențeze subconștientul electoral.[7]
Această strategie avansată de microtargeting a permis livrarea unor mesaje diferite pentru segmente distincte ale electoratului, accentuând diviziunile sociale și polarizând dezbaterile politice. Similar tehnicilor de propagandă utilizate de regimurile totalitare, metoda Cambridge Analytica a reușit să ocolească filtrele raționale ale indivizilor, exploatându-le vulnerabilitățile emoționale pentru a le influența percepția asupra realității politice.[8]
Pornind de la acest episod observăm că, chiar dacă Cambridge Analytica și-a încetat activitatea în 2018 fenomenul s-a dezvoltat și mai mult în anii următori, iar noua platformă de socializare chinezească TikTok ridicând preocupări similare. Lipsa transparenței în algoritmii săi sugerează un potențial risc de manipulare la scară globală, subliniind necesitatea unor reglementări mai stricte privind protecția datelor și utilizarea AI în social media.[9]
Sub același principiu în contextul alegerilor prezidențiale din România din 2024, au existat acuzații conform cărora TikTok ar fi fost utilizat pentru a sprijini un candidat pro-rus prin intermediul unei campanii sofisticate pe rețelele sociale, implicând influenceri și activități coordonate.[10] Dacă în cazul Cambridge Analytica, profilarea a fost utilizată pentru microtargeting electoral, în cazul TikTok, preocuparea principală este capacitatea algoritmilor săi de a modela comportamente, filtra conținutul accesibil și favoriza anumite curente politice, fără transparență, platformele de socializare transformându-se astfel într-un instrument puternic de manipulare globală.[11]
Fake news vs. Deep news: redefinirea consumului de informație
Scandalul Cambridge Analytica a demonstrat că diferența dintre știri autentice și știri fabricate devine din ce în ce mai dificil de realizat. Un exemplu relevant în acest sens îl constituie știrea falsă conform căreia Papa Francisc l-ar fi susținut pe Donald Trump în campania prezidențială din Statele Unite ale Americii din 2016.[12] Acest caz evidențiază modul în care informațiile eronate pot fi amplificate și percepute ca adevăruri incontestabile atunci când sunt distribuite strategic către un public predispus să le accepte. Propagarea unor astfel de narative reflectă tendința opiniei publice de a reacționa la conținut care corespunde așteptărilor și convingerilor deja existente.
„Minciuna face jumătate din înconjurul lumii, înainte ca Adevărul să apuce să-și tragă pantalonii.”, afirma Winston Churchill, această expresie surprinde perfect un fenomen aflat într-o continuă expansiune: fake news. Deși conceptul este cunoscut de multă vreme, chiar și înainte de apariția internetului, în prezent acesta a căpătat o expunere crescută în spațiul public, politic, social și mediatic.[13]
Știrile false sau „Fake News” pot fi definite ca informații care pretind a fi știri, dar nu sunt rezultatul unui proces autentic de raportare a informațiilor către public.[14] O știre reală este rezultatul unui proces în care informațiile sunt colectate și utilizate pentru a crea un raport veridic, în timp ce o știre falsă are aspectul unei știri autentice, dar nu are substanța acesteia.[15] Ceea ce o face falsă este modul în care informațiile sunt raportate, putând fi eronat, părtinitor sau neglijent. Suntem adesea tentați de a crede știrile false atunci când acestea se aliniază cu propriile opinii. În schimb, când acestea contrazic credințele personale, apare scepticismul. Prin urmare, dezinformarea are un efect de polarizare asupra societății.[16] În perioada Războiului Rece, americanii au formulat și ei câteva definiții relevante. Potrivit lor, propaganda este o tactică de diseminare prin intermediul mass-mediei a zvonurilor, a jumătăților de adevăr sau chiar a minciunilor, în timp ce dezinformarea reprezintă strategia unui stat adversar de a induce în eroare indivizii, guvernele sau elitele, cu scopul de a influența opinia publică străină.[17] În perioada respectivă, propaganda a reprezentat o metodă prin care statul exercita un control absolut asupra societății, inclusiv asupra educației, informării și a tuturor activităților cotidiene. Aceasta se realiza prin intermediul unei supravegheri stricte și prin promovarea anumitor idei, oameni și partide. Există și o asociere între propaganda și publicitate, întrucât publicitatea poate fi considerată „forma plătită de difuzare a informațiilor cu caracter politic”.[18] Odată cu apariția și evoluția Internetului, acesta devine un important canal de informare, oferind o mai mare libertate de exprimare decât mass-media tradițională. Cu toate acestea, odată cu această libertate vine și un potențial crescut pentru răspândirea informațiilor false și manipularea opiniei publice.[19] Fake news se referă la informații false sau manipulative care sunt prezentate ca fiind adevărate. Ele pot fi create intenționat pentru a influența opinia publică, pentru a dezinforma sau chiar pentru a destabiliza procesele politice. În mediul digital, fake news se răspândesc rapid și cu ușurință, având potențialul de a ajunge la un număr mare de persoane într-un timp scurt.[20] Pentru a combate fake news și dezinformarea în mediul digital, este necesară o abordare multidimensională. Educația și dezvoltarea abilităților de evaluare critică a informațiilor sunt esențiale pentru cetățeni, astfel încât să poată recunoaște și filtra informațiile false.[21]
DeepFake și Manipularea Vizuală
Datorită progresului rapid al noilor tehnologii și al AI, avem astăzi posibilitatea de a genera imagini și videoclipuri extrem de realiste, atât de convingătoare încât pot părea autentice.[22] Totuși, acestea nu sunt altceva decât reproduceri create de la zero: imagini hiperrealiste care nu au un model de referință (precum fotografii generate de inteligența artificială ale unor persoane inexistente) sau care pornesc de la imagini reale, dar sunt complet modificate în mod artificial. Acest fenomen este cunoscut sub denumirea de „DeepFake”. Putem să facem un exercițiu de imaginație și să ne gândim la un videoclip în care președintele Statelor Unite declară război unei alte națiuni sau insultă public un alt președinte. Sau să ne imaginăm orice persoană publică cunoscută și influentă rostind cuvinte periculos de interpretabile. Cum ar reacționa opinia publică la o astfel de declarație falsă într-o lume tot mai dependentă de mediul digital?
Termenul DeepFake a apărut pentru prima dată în 2017, atunci când un utilizator anonim de pe Reddit, sub pseudonimul „DeepFake”, a postat mai multe videoclipuri pornografice cu celebrități. Aceste videoclipuri au stârnit un scandal imens la momentul respectiv, dar au fost rapid dezvăluite ca fiind falsuri create de inteligența artificială.[23] După acest incident, tehnologia a continuat să se îmbunătățească, iar acest tip de produs multimedia au devenit din ce în ce mai realiste și mai greu de distins de cele autentice: fotografiile celebrităților fiind folosite pentru a îmbunătăți performanțele inteligenței artificiale.
În acest context, se pot evidenția câteva dintre primele producții DeepFake care au atras atenția globală. În luna mai 2018, au fost realizate noi exemple de videoclipuri false utilizând aceeași tehnologie. Un astfel de videoclip îl prezenta pe Donald Trump oferind Belgia un acord referitor la „schimbările climatice”. Inițial, videoclipul a fost distribuit pe platformele de socializare, precum Twitter și Facebook, stârnind numeroase comentarii de indignare față de afirmațiile președintelui privind politica climatică a Belgiei. Ulterior, s-a descoperit că materialul video fusese creat de un partid socialist belgian și a fost recunoscut ca fiind fals, creatorii acestuia justificând falsitatea prin calitatea slabă a producției.[24] În aprilie 2018, regizorul Jordan Peele a colaborat cu BuzzFeed pentru a realizat un alt videoclip conceput pentru a provoca scandal: un fals anunț public în care Barack Obama îl insulta pe Donald Trump, etichetându-l drept „un imbecil total și complet”. Scopul acestei producții a fost de a sublinia pericolele tehnologiilor de manipulare a imaginii, dar și riscurile ce derivă din utilizarea acestora, demonstrând cât de ușor se pot altera filmele pentru a răspândi mesaje false. La început, videoclipul părea un mesaj autentic din partea unui președinte, dar spre final s-a dezvăluit că totul era o înșelătorie. Totuși, atenția s-a concentrat asupra verosimilismului videoclipului, iar regizorul, care a oferit și vocea personajului, a lansat un mesaj public prin care sublinia importanța reglementării legislative pentru prevenirea răspândirii de informații false periculoase.[25]
Fenomenul DeepFake a pătruns rapid și în România prin intermediul rețelelor de socializare. Un exemplu relevant în acest sens a avut loc în 2020, având în prim-plan un personaj politic, respectiv președintele Klaus Iohannis. În clipul respectiv, președintele Iohannis părea să facă declarații controversate despre măsuri economice, inclusiv planuri de închidere a anumitor industrii din România, afirmații care nu au fost niciodată făcute public de acesta. Videoclipul a fost creat utilizând tehnologia DeepFake, manipulând atât imagini, cât și sunet, pentru a crea iluzia că președintele ar fi făcut afirmații periculoase, de această dată creatorii „operei” au fost ajutați și de contextul pandemiei de COVID-19, președintele apărând în clip purtând mască. Clipul a circulat rapid pe rețelele sociale, provocând confuzie și neliniște în rândul cetățenilor, mai ales în contextul crizei economice și pandemiei de COVID-19. Deși autoritățile române, împreună cu organizații de verificare a faptelor, precum AFP România și Reuters, au demontat rapid videoclipul ca fiind fals, efectul asupra publicului a fost semnificativ.
Reglementare și Protecție împotriva manipulării digitale
În România, mai multe acte legislative existente pot fi aplicate în cazurile de manipulare a imaginii și defăimare folosind tehnologia DeepFake. Acestea includ:
- Legea nr. 190/2018 privind protecția datelor cu caracter personal (Legea GDPR) – Această lege reglementează protecția datelor personale și confidențialitatea acestora. În cazul în care DeepFake este utilizat pentru a manipula imagini sau informații care privesc persoane fizice, aceasta poate încălca drepturile lor la viață privată și confidențialitate.[26]
- Legea nr. 8/1996 privind dreptul de autor și drepturile conexe – Legea protejează drepturile de autor, inclusiv drepturile asupra imaginii și conținutului audiovizual. Crearea de videoclipuri DeepFake fără consimțământul persoanelor implicate poate constitui o încălcare a dreptului de autor și a dreptului la imagine.[27]
- Codul penal al României – În cazurile de defăimare, înșelăciune sau instigare la violență, care pot apărea în urma utilizării DeepFake, se pot aplica sancțiuni prevăzute de Codul penal.[28]
- Inițiative legislative europene – La nivel european, inițiative precum Regulamentul privind Serviciile Digitale (DSA) și Regulamentul privind Piața Digitală (DMA) stabilesc obligații pentru platformele online de a preveni răspândirea dezinformării și a conținutului manipulat, inclusiv DeepFake.[29]
Amenințările legate de manipularea informațiilor prin tehnologia DeepFake au generat o preocupare crescută în rândul autorităților. În acest context, a apărut Proiectul de lege PL-x 471/2023,[30] privind combaterea utilizării malițioase a tehnologiei de tip DeepFake, fiind adoptat de Senat în iunie 2023,[31] apoi amendat drastic în Camera Deputaților (introducând-se pedepse cu închisoarea),[32] ceea ce a provocat dezbatere publică intensă și critici din partea ONG-urilor privind posibile atingeri aduse libertății de exprimare.[33] După toate aceste dezbateri, în februarie 2024, votul final în Camera Deputaților a fost amânat și proiectul a fost retrimis la comisii.[34] Până la începutul anului 2025, Camera Deputaților nu a mai supus la vot inițiativa, aceasta rămânând blocată și neadoptată.[35]
Practic, reglementarea fenomenului DeepFake în România a rămas în stand-by, neexistând încă prevederi legale în vigoare care să sancționeze distribuirea de DeepFake-uri nemarcate – aspect evidențiat și de presa de specialitate, care nota că „regulile care să împiedice folosirea în scopuri malițioase au rămas ca la început: zero.”[36]
Concluzii
Evoluția inteligenței artificiale a generat schimbări majore în sfera electorală, transformând atât modul în care candidații interacționează cu alegătorii, cât și vulnerabilitățile procesului democratic. Manipularea digitală a devenit un instrument puternic, capabil să influențeze percepțiile colective și să creeze realități alternative prin tehnici avansate de micro-targeting, algoritmi de personalizare a conținutului și DeepFake-uri sofisticate. Dacă în trecut, propagarea dezinformării depindea de mijloace tradiționale, în prezent, IA oferă posibilități fără precedent de amplificare a mesajelor false, exploatând emoțiile și preferințele utilizatorilor cu o precizie matematică.
Analiza fenomenului Cambridge Analytica demonstrează cum exploatarea datelor personale și a profilării psihologice poate modifica radical rezultatul unor alegeri democratice. Strategiile avansate de influențare prin Big Data și IA au evidențiat un model de manipulare în masă, ale cărui efecte continuă să fie studiate și în prezent. Similar, suspiciunile legate de utilizarea algoritmilor TikTok pentru favorizarea unor candidați în alegerile din România din 2024 subliniază dimensiunea globală a acestui fenomen. Rețelele sociale, inițial concepute ca spații de liber schimb de idei, s-au transformat treptat în câmpuri de luptă digitală, unde adevărul și falsul coexistă într-un echilibru precar. DeepFake-urile au accentuat și mai mult această problemă, generând o incertitudine fără precedent asupra veridicității informațiilor. Exemplele analizate demonstrează rapiditatea cu care astfel de conținuturi se pot răspândi și impactul lor asupra opiniei publice. Capacitatea tehnologiilor AI de a crea imagini și înregistrări audio-video aproape imposibil de distins de realitate ridică întrebări fundamentale despre viitorul democrației și despre modul în care alegătorii pot lua decizii informate.
În acest context, lipsa unor reglementări clare reprezintă un risc major. Proiectul de lege PL-x 471/2023, privind combaterea utilizării malițioase a tehnologiei DeepFake, deși propus și amendat, rămâne blocat în Parlamentul României, ceea ce evidențiază dificultatea autorităților în gestionarea acestei provocări emergente. Absența unor sancțiuni clare și a unor măsuri eficiente de combatere a dezinformării lasă un vid legislativ periculos, în care actori politici și non-statali pot exploata tehnologiile IA fără consecințe imediate. IA va continua să fie folosită ca armă digitală, iar manipularea electorală va deveni o normă, nu o excepție. Viitorul democrației depinde de capacitatea noastră de a impune măsuri ferme și de a educa publicul pentru a recunoaște și combate dezinformarea. În lipsa acestora, riscăm ca procesul electoral să devină o iluzie controlată algoritmic, unde adevărul este doar o variabilă manipulabilă în funcție de interesele celor care dețin puterea tehnologiei.
Bibliografie
Surse principale
- Burch Joann Johansen, Fine print: a story about Johann Gutenberg. Editura Millbrook Press, Minneapolis, USA, 1991;
- Carser AR. What Is Fake News? BrightPoint Press, San Diego, CA, 2023;
- Cooke Nicole A. Posttruth, Truthiness, and Alternative Facts: Information Behavior and Critical Information Consumption for a New Age. The Library Quarterly, 87:3, 2017;
- Herjeu Radu, Oglinda mișcătoare: Tehnici de propagandă, manipulare și persuasiune în televiziune. Editura Fundației România de Mâine, 2000;
- Porshnev A Miltsov A Lokot T Koltsova O., Effects of conspiracy thinking style, framing and political interest on accuracy of fake news recognition by social media users: evidence from Russia, Kazakhstan and Ukraine. International Conference on Human-Computer Interaction, Springer, Cham, 2021;
- Stoiciu Andrei, Comunicarea Politică. Cum se vând idei şi oameni. Editura Libra, Bucureşti, 2000;
- Tănase Tiberiu (coord.) Ioana Hermina Păiuș Ionuț Vasile Nicoraș Adrian Ioan Farcău Petru Ștetcu, Inteligența artificială în informații. Editura Concordia, București, 2024;
- Voicu Marian, Matrioska mincinoșilor: fake news, manipulare, populism. Editura Humanitas, București, 2018.
- Surse web
- Arab News, Cambridge Analytica and Facebook: The Scandal That Rocked the World, Arab News, 22 aprilie 2018, https://www.arabnews.com/node/1290706/amp;
- Autoritatea Electorală Permanentă, Ghid pentru prevenirea și combaterea acțiunilor dezinformare în alegeri, 2024, https://www.roaep.ro/prezentare/wp-content/uploads/2024/04/Ghid_prevenire_combatere_actiuni_dezinformare_alegator.pdf;
- Britannica Encyclopaedia. DeepFake, n.d., https://www.britannica.com/technology/deepfake;
- Cadwalladr Carole Graham-Harrison Emma, Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach, The Guardian, 17 martie 2018. https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election;
- Christopher Wylie, Cambridge Analytica and the Manipulation of Voters, The Guardian, 17 martie 2018, https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election;
- Context.ro, Cum TikTok aproape a câștigat președinția pentru candidatul extremei drepte din România, https://context.ro/cum-tiktok-aproape-a-castigat-presedintia-pentru-candidatul-extremei-drepte-din-romania/;
- FactCheck.org, Did the Pope Endorse Trump?, 24 octombrie 2016. https://www.factcheck.org/2016/10/did-the-pope-endorse-trump/;
- Gershgorn Dave, TikTok might be a Chinese Cambridge Analytica-scale privacy threat, Quartz, 8 mai 2019, https://qz.com/1613020/tiktok-might-be-a-chinese-cambridge-analytica-scale-privacy-threat;
- Investopedia. Cambridge Analytica, https://www.investopedia.com/terms/c/cambridge-analytica.asp;
- New America, Countering AI-Generated Fake Video in the Age of Disinformation, 5 aprilie 2022, https://www.newamerica.org/cybersecurity-initiative/articles/countering-ai-generated-fake-video-age-disinformation/;
- New Money, Algoritmul TikTok: un instrument de manipulare pe scară largă sau o matematică infailibilă a ceea ce nu știm despre noi?, https://newmoney.ro/algoritmul-tiktok-un-instrument-de-manipulare-pe-scara-larga-sau-o-matematica-infailibila-a-ceea-ce-nu-stim-despre-noi/;
- Schwartz Oscar, You thought fake news was bad? Deep Fakes are where truth goes to die, The Guardian, 12 noiembrie 2018;
- Shevelyov Alexandr. January 1, 1983: The Day the Internet Came Alive with TCP/IP, DEV Community, 1 ianuarie 2021, https://dev.to/ashevelyov/january-1-1983-the-day-the-internet-came-alive-with-tcpip-21b5.
Legislație
- Adunarea Parlamentară a Consiliului Europei. Rezoluția 2212 (2018) și Rezoluția 2217 (2018);
- Comisia Europeană, Pachetul privind Actul Serviciilor Digitale (DSA), 2020. https://digital-strategy.ec.europa.eu/ro/policies/digital-services-act-package;
- Ministerul Justiției, Codul penal al României, 2023, https://legislatie.just.ro/Public/DetaliiDocumentAfis/38070;
- Ministerul Justiției, Legea nr. 8/1996 privind dreptul de autor și drepturile conexe, 2023, https://legislatie.just.ro/Public/DetaliiDocument/7816;
- Ministerul Justiției, Legea nr. 190/2018 privind protecția datelor cu caracter personal, 2023, https://legislatie.just.ro/Public/DetaliiDocument/203151;
- Senatul României, Avizul Consiliului Legislativ: 463/08.02.2023., https://www.senat.ro/Legis/Lista.aspx?cod=25311;
Note
[1] Tănase Tiberiu (coord.), Ioana Hermina Păiuș, Ionuț Vasile Nicoraș, Adrian Ioan Farcău, Petru Ștetcu, Inteligența artificială în informații, Editura Concordia, București, 2024, p. 239.
[2] Alexandr Shevelyov, January 1, 1983: The Day the Internet Came Alive with TCP/IP, DEV Community, 1 ianuarie 2021, https://dev.to/ashevelyov/january-1-1983-the-day-the-internet-came-alive-with-tcpip-21b5, (accesat 03.03.2025).
[3] Burch Joann Johansen, Fine print: a story about Johann Gutenberg. Editura Millbrook Press, Minneapolis, USA, 1991, p. 41.
[4] Arab News, Cambridge Analytica and Facebook: The Scandal That Rocked the World, Arab News, 22 aprilie 2018, https://www.arabnews.com/node/1290706/amp, (accesat 03.03.2025).
[5] Christopher Wylie, Cambridge Analytica and the Manipulation of Voters, The Guardian, 17 martie 2018, https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election, (accesat 03.03.2025).
[6] Carole Cadwalladr, Emma Graham-Harrison, Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach, The Guardian, 17 martie 2018, https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election, (accesat 03.03.2025).
[7] Investopedia, Cambridge Analytica, Investopedia, https://www.investopedia.com/terms/c/cambridge-analytica.asp, (accesat 03.03.2025).
[8] Dave Gershgorn, TikTok might be a Chinese Cambridge Analytica-scale privacy threat, Quartz, 8 mai 2019, https://qz.com/1613020/tiktok-might-be-a-chinese-cambridge-analytica-scale-privacy-threat,
[9] Idem.
[10] Cum TikTok aproape a câștigat președinția pentru candidatul extremei drepte din România, Context.ro, https://context.ro/cum-tiktok-aproape-a-castigat-presedintia-pentru-candidatul-extremei-drepte-din-romania/](https://context.ro/cum-tiktok-aproape-a-castigat-presedintia-pentru-candidatul-extremei-drepte-din-romania/), (accesat 03.03.2025).
[11] Algoritmul TikTok: un instrument de manipulare pe scară largă sau o matematică infailibilă a ceea ce nu știm despre noi?, New Money, https://newmoney.ro/algoritmul-tiktok-un-instrument-de-manipulare-pe-scara-larga-sau-o-matematica-infailibila-a-ceea-ce-nu-stim-despre-noi/, (accesat 03.03.2025).
[12] Did the Pope Endorse Trump?, FactCheck.org, 24 octombrie 2016, https://www.factcheck.org/2016/10/did-the-pope-endorse-trump/, (accesat 03.03.2025).
[13] Adunarea Parlamentară a Consiliului Europei, Rezoluția 2212 (2018), recunoaște că fake news, propaganda și dezinformarea sunt forme de manipulare, iar Rezoluția 2217 (2018) declară campaniile de dezinformare în masă prin fake news drept o tehnică specifică războiului hibrid, subliniind astfel impactul lor asupra securității și stabilității statelor membre ale Consiliului Europei.
[14] Porshnev A., Miltsov, A., Lokot, T. and Koltsova, O., 2021, July. Effects of conspiracy thinking style, framing and political interest on accuracy of fake news recognition by social media users: evidence from Russia, Kazakhstan and Ukraine. In International Conference on Human-Computer Interaction Springer, Cham. pp. 341-357.
[15] Nicole A. Cooke, Posttruth, Truthiness, and Alternative Facts: Information Behavior and Critical Information Consumption for a New Age în The Library Quarterly 87:3, 2017, pp. 211-221.
[16] Marian Voicu, Matrioska mincinosilor: fake news, manipulare, populism, Editura Humanitas, București, 2018, p. 367-368.
[17] Marian Voicu, op. cit., pp. 71- 72.
[18] Andrei Stoiciu, Comunicarea Politică. Cum se vând idei şi oameni, Editura Libra, Bucureşti, 2000, p. 14.
[19] Radu Herjeu, Oglinda mișcătoare: Tehnici de propagandă, manipulare și persuasiune în televiziune, Editura Fundației România de Mâine, 2000, pp. 11-12.
[20] Carser AR. What Is Fake News? San Diego CA: BrightPoint Press; San Diego, CA, 2023, pp. 29-24.
[21] Autoritatea Electorală Permanentă. (2024). Ghid pentru prevenirea și combaterea acțiunilor dezinformare în alegeri. Autoritatea Electorală Permanentă. Accesat la https://www.roaep.ro/prezentare/wp-content/uploads/2024/04/Ghid_prevenire_combatere_actiuni_dezinformare_alegator.pdf
[22] Vezi: Autoritatea Națională pentru Protecția Datelor cu Caracter Personal (2024). Ghid de prevenire și combatere a fenomenului DeepFake. Direcția Națională de Securitate Cibernetică. Accesat la https://dnsc.ro/vezi/document/ghid-deepfake.
[23] Encyclopaedia Britannica. (n.d.). DeepFake, https://www.britannica.com/technology/deepfake, (accesat 03.03.2025).
[24] Oscar Schwartz, You thought fake news was bad? Deep Fakes are where truth goes to
die, in The Guardian, 12 November 2018, (accesat 03.03.2025).
[25]New America. (2022, 5 aprilie). Countering AI-Generated Fake Video in the Age of Disinformation. https://www.newamerica.org/cybersecurity-initiative/articles/countering-ai-generated-fake-video-age-disinformation/, (accesat 03.03.2025).
[26]Ministerul Justiției. (2023). Legea nr. 190/2018 privind protecția datelor cu caracter personal, https://legislatie.just.ro/Public/DetaliiDocument/203151, (accesat 03.03.2025).
[27]Ministerul Justiției (2023). Legea nr. 8/1996 privind dreptul de autor și drepturile conexe, https://legislatie.just.ro/Public/DetaliiDocument/7816, (accesat 03.03.2025).
[28]Ministerul Justiției. (2023). Codul penal al României, https://legislatie.just.ro/Public/DetaliiDocumentAfis/38070, (accesat 04.03.2025).
[29] Comisia Europeană. (2020). Pachetul privind Actul Serviciilor Digitale (DSA), https://digital-strategy.ec.europa.eu/ro/policies/digital-services-act-package, (accesat 04.03.2025).
[30]Senatul României. (2023). Avizul Consiliului Legislativ: 463/08.02.2023. https://www.senat.ro/Legis/Lista.aspx?cod=25311, (accesat 04.03.2025).
[31] G4Media. (2023, 26 iunie). Senatul a adoptat un proiect de lege privind interzicerea utilizării malițioase a tehnologiei și limitarea fenomenului deepfake: Falsul sever, amenzi de la 10.000 la 200.000 de lei, https://www.g4media.ro/senatul-a-adoptat-un-proiect-de-lege-privind-interzicerea-utilizarii-malitioase-a-tehnologiei-si-limitarea-fenomenului-deepfake-falsul-sever-amenzi-de-la-10-000-la-200-000-de-lei.html, (accesat 04.03.2025).
[32] Centrul pentru Jurnalism Independent (CJI). (2024, 7 februarie). Nu votați o variantă chinezească a legii deepfake, https://cji.ro/nu-votati-o-varianta-chinezeasca-a-legii-deepfake/#:~:text=Proiectul%20de%20lege%20a%20fost,artistic%20a%20con%C5%A3inutului%20de%20tip, (accesat 04.03.2025).
[33] Idem
[34] Euractiv. (2024, 7 februarie). Legea deepfake retrimisă la comisie pentru două săptămâni. Accesat la https://www.euractiv.ro/facts-not-fake/legea-deepfake-retrimisa-la-comisie-pentru-doua-saptamani-65690#:~:text=UPDATE, (accesat 04.03.2025).
[35] Europa Liberă România. (2024, 7 februarie). Videoclipurile cu imagini false excelează. Legea care ar reglementa fenomenul trenă, de ce nu ar produce efecte și dacă ar fi votată, https://romania.europalibera.org/a/videoclipurile-cu-imagini-false-exceleaza-legea-care-ar-reglementa-fenomenul-treneaza-de-ce-nu-ar-produce-efecte-si-daca-ar-fi-votata/33105760.html, (accesat 04.03.2025).
[36] Idem.
Lasă un răspuns