Home » Blog » Arhiva » Controlul informației și competiția pentru putere în mediul digital

Controlul informației și competiția pentru putere în mediul digital

Intelligence Info - Descarcă PDFHușanu, Mihaela (2026), Controlul informației și competiția pentru putere în mediul digital, Intelligence Info, 5:1, 8-25, https://www.intelligenceinfo.org/controlul-informatiei-si-competitia-pentru-putere-in-mediul-digital/

 

Information Control and Competition for Power in the Digital Environment

Abstract

Globalization, technology and communication create an interdependent triad, in which the dynamics of each element are conditioned by the other two. This article analyzes the pathologies of communication generated by the accelerated development of the digital environment and its integration into global processes of information and influence. The paper highlights the transformation of the digital ecosystem into a space of symbolic confrontation, marked by manipulation, computational propaganda, disinformation and social polarization. The analysis is based on specialized literature in the field of communication, security studies and digital environment, and aims to describe how the main mechanisms by which algorithms, bots, trolls and strategic narratives distort the information circuit and affect the formation of public opinion act. The effects of these dysfunctions on trust in state institutions, on democratic processes and on social cohesion are examined. The conclusions show that communication pathologies are not accidental phenomena, but represent structural vulnerabilities of the digital age, which call into question the role of security culture, based on critical thinking, media literacy, and strengthening societal resilience.

Keywords: globalization; technology; communication; information; disinformation; democracy; impact; security culture

Rezumat

Globalizarea, tehnologia și comunicarea formează o triadă interdependentă, în care dinamica fiecărui element este condiționată de celelalte două. Articolul de față analizează patologiile comunicării generate de dezvoltarea accelerată a mediului digital și de integrarea acestuia în procesele globale de informare și influență. Lucrarea evidențiază transformarea ecosistemului digital într-un spațiu de confruntare simbolică, marcat de manipulare, propagandă computațională, dezinformare și polarizare socială. Analiza are la bază literatura de specialitate din domeniul comunicării, studiilor de securitate și mediului digital, și urmărește descrierea modului în care acționează principalele mecanisme prin care algoritmii, boții, trolii și narațiunile strategice distorsionează circuitul informațional și afectează formarea opiniei publice. Sunt examinate efectele acestor disfuncții asupra încrederii în instituțiile statului, asupra proceselor democratice și asupra coeziunii sociale. Concluziile arată că patologiile comunicării nu reprezintă fenomene accidentale, ci sunt vulnerabilități structurale ale erei digitale, care pun în dezbatere rolul culturii de securitate, bazată pe gândire critică, alfabetizare media și consolidarea rezilienței societale.

Cuvinte cheie: globalizare; tehnologie; comunicare; informare; dezinformare; democrație; impact; cultura de securitate

 

INTELLIGENCE INFO, Volumul 5, Numărul 1, Martie 2026, pp. 8-25
ISSN 2821 – 8159, ISSN – L 2821 – 8159
URL: https://www.intelligenceinfo.org/controlul-informatiei-si-competitia-pentru-putere-in-mediul-digital/
© 2026 Mihaela HUȘANU. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.

 

Controlul informației și competiția pentru putere în mediul digital

Mihaela HUȘANU[1]
mihaela85husanu@gmail.com

[1] Consilier, Camera Deputaților, Birou Parlamentar: Elaborarea și implementarea strategiei de comunicare

 

Patologiile comunicării în era digitală

„Fenomenele de comunicare sunt parte integrantă a globalizării”, a afirmat Dobrescu (2010, p. 380). Comunicarea nu doar că exprimă, dar și organizează procesul de globalizare, multiplicând și structurând relațiile de interdependență prin intermediul rețelelor, dar mai ales controlând direcția și semnificația conținutului simbolic care circulă prin aceste rețele. Controlul exercitat asupra conținutului a impus, treptat, autoritatea și legitimitatea tehnologiilor moderne de comunicare, a căror dezvoltare accelerată reprezintă cauza și efectul apariției unei noi ordini mondiale (Hardt & Negri, 2001, citați în Dobrescu, 2010).

Competiția pentru supremație și dominație s-a accentuat pe măsură ce au fost cucerite vârfuri tehnologice imaginate până nu demult doar de literatura științifico-fantastică. Pe de altă parte, lupta pentru influență asupra spațiului cibernetic și pentru controlarea datelor utilizatorilor a căpătat amploare odată cu expansiunea capitalismului digital, în care activitatea socio-economică nu a mai fost centrată pe schimbul de produse industriale, ci pe schimbul de informații digitale, transmise cu ajutorul rețelelor de date (Pleiffer, 2021). Într-o lume afectată în permanență de „schimbări tectonice”, comunicarea reprezintă unul dintre terenurile de confruntare, iar „bătălia pentru agendă, pentru interpretare, pentru acapararea spațiului simbolic, este mai acerbă decât oricând” (Bârgăoanu, 2018, p. 35).

Ecosistemul digital este principala sursă a noilor patologii de comunicare, ce s-au diversificat pe măsură ce mediul de comunicare a suferit transformări succesive, pe fondul dezvoltării galopante a tehnologiei. Realitatea lumii digitale confirmă afirmația teoreticianului Marshal McLuhan, „mediul este mesajul” (1964), care a evidențiat relația simbiotică dintre mesaj și mediul în care este transmis. Totuși, media emergente, prin inteligența artificială, deturnează procesul și normele tradiționale de comunicare, influențând decisiv modul în care sunt percepute mesajele, prin interferențele cu emițătorul, codul, canalul de transmitere, mesajul în sine și receptorul (Guzman & Lewis, 2020).

Patologiile de comunicare afectează nu numai acuratețea informației, ci și eficiența ei, și se grupează sub spectrul mai larg al manipulării. Van Dijk (2006) a afirmat că manipularea reprezintă „o practică interacțională și comunicațională, în care un manipulator exercită controlul asupra altor persoane, de obicei împotriva voinței lor sau împotriva intereselor lor. Ea nu implică doar putere, ci în mod specific abuz de putere, adică dominație” (p. 360). Pe de altă parte, manipularea este adesea caracterizată ca „o formă de influență, care nu este nici constrângere, nici persuasiune rațională” (Noggle, 2022). Aceasta uzează de tehnici prin care adevărul este distorsionat, dar lasă celui manipulat impresia libertății de gândire și de decizie.

Propaganda computațională este una dintre cele mai răspândite strategii în care tehnologia informației este folosită pentru controlul social și pentru subminarea percepției rezilienței societale. Propaganda digitală a fost descrisă ca o formă disruptivă de manipulare, în care sunt utilizați algoritmii, pentru a selecta, gestiona și a distribui în mod intenționat informații înșelătoare prin rețelele sociale (Woolley & Howard, 2016). Acest tip de propagandă presupune programe interactive și impregnate ideologic, prin intermediul cărora agenți autonomi, care dispun de date referitoare la comportamentul și preferințele utilizatorilor, se angajează în discuții cu caracter politic și promovează anumite idei, pentru a influența opiniile, valorile și interesele participanților online.

În spațiul digital, persuadarea se realizează și prin intermediul algoritmilor și al boților, impactul social al folosirii acestora fiind confirmat în cazul Referendumului cu privire la menținerea Regatului Unit în Uniunea Europeană – Brexit, 2016 (Howard & Kollanyi, 2016). Algoritmii sunt seturi automate de reguli sau instrucțiuni care transformă datele, filtrează sau prioritizează conținutul pe care îl primește un utilizator, pe baza informațiilor personale colectate în legătură cu obiceiurile sale de consum și a istoricului activității de pe rețele sociale (clicuri, distribuiri și aprecieri). Platformele online (precum Google, Facebook, Twitter, Instagram) folosesc diverși algoritmi pentru a prezice ceea ce utilizatorii sunt interesați să vadă, pentru a declanșa implicarea acestora și a-și maximiza, în acest fel, veniturile din publicitate. În ceea ce privește boții, aceștia sunt programe conduse de algoritmi, care au fost concepute pentru a învăța și a mima comportamentul uman, în așa fel încât să manipuleze opiniile pe rețele de socializare sau pe site-uri întreținute de comunitate (Wikipedia). Boții politici sunt utilizați pentru a genera și a distribui conținut favorabil candidaților sau pentru a ataca adversarii acestora și a bruia conversațiile activiștilor. Un studiu din 2018, realizat în cadrul Serviciului de Cercetare al Parlamentului European (EPRS), a arătat că există o piață neagră a rețelelor de boți politici, care sunt reutilizabili după ce și-au atins obiectivele de manipulare.

Activități de propagandă sunt realizate, de asemenea, prin intermediul trolilor, agenți umani online, sponsorizați de actori-statali pentru a hărțui alți utilizatori sau pentru a publica diverse informații menite să creeze controverse (conspirații, zvonuri, farse, falsuri), pentru a antrena panică, furie, confuzie, dezbinare, revoltă, ură, sau pentru a mima suportul popular pentru o anumită cauză (astroturfing).

Era digitală a schimbat radical modul în care actorii statali comunică între ei și cu publicurile globale, în încercarea de a influența opiniile în interiorul granițelor, dar și în exteriorul lor, inclusiv prin platformele sociale. În acest scop, ei se folosesc de narațiuni strategice, care reprezintă mijloace prin care reinterpretează trecutul și prezentul politicii naționale, pentru a modela în avantajul lor comportamentul celorlalți actori. Aceste narațiuni strategice reflectă intențiile pe care le urmăresc statele pe scena internațională (Flaherty & Roselle, 2018). Conținutul lor nu este unul nou, ci unul care urmărește să ofere impresia de familiaritate, să activeze vulnerabilități istorice sau să alimenteze anxietăți publice. Un raport publicat la data de 24 ianuarie 2022 de către EU vs Disinformation, grupul operativ EastStratComm al Serviciului European de Acțiune Externă, a identificat miturile folosite de Rusia în contextul conflictului cu Ucraina. Narațiunile Rusiei denigrează statul agresat, prezentându-l drept o amenințare la adresa securității globale, și atacă întreaga comunitate internațională ce și-a anunțat susținerea pentru Ucraina și a recunoscut suveranitatea, integritatea teritorială și independența acesteia. Pe de altă parte, în unele narative distribuite în statele care nu au divergențe istorice cu Kremlinul, Rusia este prezentată ca o alternativă economică și politică.

Platformele sociale limitează accesul la informații, prin filtrarea și segmentarea difuzării de conținut (narrowcasting) și anulează dreptul la liberă exprimare, prin impunerea cenzurii. Izolarea utilizatorilor în „bule-filtru” și „camere de ecou” și expunerea acestora la „informații în cascadă” constituie procese care au ca rezultat polarizarea opiniei publice. Captivi în „spații cognitive închise”, unde sunt asediați cu mesaje care le susțin convingerile, oamenii confundă raporturile adevăr – minciună, corect – greșit, relevant – irelevant, și tind să ia decizii care nu sunt în interesul lor sau al societății (Vilmer et al., 2018, citați de Oprea, 2021).

Permițând multiplicarea la scară globală a oricărui conținut, inclusiv a celor de tip manipulator (de exemplu, editarea videoclipurilor prin mixarea imaginilor și sunetelor din diverse surse), rețelele sociale și-au pierdut rolul de instrumente de comunicare, conectare și comuniune, au devenit câmpuri de luptă și au contribuit astfel la transformarea informațiilor în arme (weaponized content). Cea mai utilizată dintre aceste arme este dezinformarea (fake news), care întreține dezordinea informațională și are un potențial distructiv pentru democrație și securitatea statelor.

Instrumente și tehnici de dezinformare în mediul digital

Într-o reinterpretare nouă, pentru era digitală, în care supraîncărcarea informațională este generată atât de cantitatea de informații disponibile, cât și de viteza producerii lor, aforismul latin „Scientia potentia est” (cunoașterea / informația înseamnă putere) a devenit „claritatea înseamnă putere”, așa cum a afirmat istoricul Yuval Noah Harari, referindu-se la capacitatea de adaptare la o lume inundată de informații false și irelevante.

Apărut pentru prima dată în limba rusă, după cel de al Doilea Război Mondial, termenul „dezinformare” a desemnat „practicile exclusiv capitaliste care urmăreau aservirea maselor populare” (Volkoff, 2009, p. 16). Ulterior, conceptul a fost preluat și dezvoltat în spectrul militar, păstrând însă ideologia enunțată de generalul chinez Sun Tzu, cu o jumătate de mileniu î.e.n., în tratatul „Arta războiului”. Tzu a arătat că „arta supremă a războiului este a învinge dușmanul fără luptă” (război asimetric), că „rafinamentul suprem este acela de a ataca planurile inamicului” (război al ideilor), că „victoria poate fi creată”, deoarece „toată arta războiului se întemeiază pe înșelătorie” (război al percepțiilor).

Teoreticienii dezinformării au evidențiat intenția agresiunii și mijloacele subversive ca elemente definitorii ale acestei forme de război informațional, care, deși cunoscută și aplicată ca instrument al puterii politice încă din timpuri străvechi, s-a desăvârșit odată cu dezvoltarea tehnologiilor digitale de comunicare. Astfel, dezinformarea reprezintă „ansamblul procedeelor dialectice puse în joc în mod intenționat pentru a reuși manipularea perfidă a persoanelor, grupurilor sau a unei întregi societăți, în scopul de a le devia conduitele politice, de a le domina gândirea sau chiar a le subjuga. Presupune disimularea surselor și scopurilor reale, precum și intenția de a face rău printr-o reprezentare deformată sau printr-o interpretare tendențioasă a realității.” (Cathala, 1991, citat în Oprea, 2021, p. 55). Pe de altă parte, într-un document de strategie elaborat de experții Comisiei Europene în 2019, dezinformarea a fost definită ca „informație falsă sau înșelătoare, creată, prezentată și diseminată pentru a obține un câștig economic sau pentru a înșela în mod intenționat publicul”.

La nivelul discursului public, termenul „dezinformare” a fost asociat în general cu „fake news”, sintagmă care, după amploarea informațiilor false vehiculate în 2016, în perioada alegerile prezidențiale din SUA, a devenit referința lingvistică a anului următor, conform Dicționarului Collins. În relație cu social media și alte surse online, cercetătorii de la Oxford Internet Institute (OII) au utilizat în 2019 și sintagma „junk news” (știri nedorite), definite ca acele comentarii extremiste, senzaționaliste, conspiraționiste, mascate, care surmontează practica de manipulare a opiniei publice, devenind factori declanșatori pentru tulburările sociale.

Referindu-se la multiplele feluri în care mediul informațional este „poluat” cu informații false, Wardle și Derakhshan (2017) au făcut distincția între dezinformarea intenționată (dis-information), dezinformarea neintenționată (mis-information) și informarea răuvoitoare (mal-information). Dezinformarea cu intenție desemnează informațiile false create pentru a face rău unei persoane, unui grup social, unei organizații sau unui stat, în timp ce informațiile greșite sunt pur și simplu neadevărate, fără a avea intenția de a dăuna. Cât privește informarea răuvoitoare, ea se bazează pe informații factual adevărate, care pot fi utilizate în mod strategic pentru a face rău.

Din perspectiva conținutului, cele mai frecvente tulburări informaționale au fost clasificate de Wardle (2019) astfel: conținut fabricat (informația este 100% falsă, creată cu intenția de a înșela și de a dăuna), conținut manipulat (informația reală este manipulată pentru a înșela; de exemplu, fotografiile trucate), conținut de tip impostor (în care sursele legitime sunt amestecate cu sursele false), context fals (un conținut factual corect este distribuit în amestec cu informații contextuale false), conținut înșelător (informații înșelătoare care pun într-o anumită lumină o temă sau o persoană), conexiuni false (titlurile, imaginile sau explicațiile nu susțin textul), satira și parodia (conținut care nu are intenția de a face rău, dar poate să inducă în eroare). În funcție de potențialul lor distructiv, cele mai periculoase sunt conținuturile fabricate, manipulate, false și de tip impostor, în timp ce restul pot fi asociate cu un nivel scăzut de poluare informațională, cu toate că titlurile clickbait, subtitrările neglijente sau satira rafinată pot fi, de multe ori, profund înșelătoare.

Cercetătorii de la Departamentul de Comunicare Strategică al Universității din Lund (Suedia) au arătat, într-un raport din 2018, că există mai multe categorii de tehnici de influențare a opiniei publice în media sociale. Aceste tehnici fie sunt utilizate simultan, fie consecutiv, ca dovadă că sunt parte integrantă a unei strategii de dezinformare: hacking-ul cognitiv, social și parasocial; acțiunile simbolice; dezinformarea și fake news; falsificarea și scurgerea de informații; dovezile false; identitățile înșelătoare; boții, marionetele și botnets; trollingul și flaming-ul; umorul și mema; retorica malignă (Pamment et al., 2018).

Hacking-ul cognitiv reprezintă o formă de atac cibernetic care speculează vulnerabilitățile cognitive ale utilizatorilor de pe platformele sociale. Aceștia sunt influențați prin expunerea la conținuturi ce declanșează răspunsuri emoționale excesive (negative sau pozitive). Hackingul cognitiv poate fi direcționat cu precizie până la nivel individual (psihografic) sau poate fi exploatat pentru manipularea dinamicii grupurilor (sociocognitiv). Segmentarea psihografică și targetarea cu precizie reprezintă tehnici care se bazează pe colectarea de date, pe tehnologia și serviciile comerciale oferite de rețelele sociale.

Pe de altă parte, hackingul social, denumit și inginerie socială, presupune manipularea psihologică a utilizatorilor, pentru efectuarea anumitor acțiuni sau divulgarea de informații confidențiale. Această tehnică exploatează natura tribală a oamenilor, care tind să se conformeze grupurilor, și care reacționează în mod previzibil în anumite situații, pe baza bias-urilor (scheme de gândire influențate de cauze neconştientizate), a judecăților euristice (scurtături mentale) și a prejudecăților. În procesele de formare a opiniilor și de luare a deciziilor, oamenii resimt efectul de presiune din partea grupului, iar acest aspect este instrumentalizat inclusiv propagandistic. Tendința de conformare a dat naștere la efecte dinamice precum dovada socială (de exemplu, falsa autoritate dobândită de influenceri, prin manipularea numărului de aprecieri și distribuiri), efectul de turmă și reveresul său – spirala tăcerii. Aceste efecte sunt amplificate prin expunerea selectivă, la care contribuie algoritmii, în bulele-filtru și camerele de rezonanță.

Hacking-ul parasocial uzează de modul în care utilizatorii social media interpretează subiectiv relațiile unilaterale pe care le stabilesc cu străinii, celebritățile sau factorii de decizie, relații despre care cred că funcționează în ambele direcții, simetric și reciproc. Cele mai întâlnite instrumente de hacking parasocial sunt: prietenii falși, în spatele cărora se ascund cei care manipulează și direcționează informații, simularea prieteniei (prin exploatarea rețelei de prieteni) și shilling-ul (manipularea sistemelor de recomandări de produse pe platformele comerciale, prin generarea automată sau manuală de recomandări).

O altă tehnică de influențare se bazează pe acțiunile simbolice, acele acte intenționate, cu o anumită semnificație pentru un public, de la care se așteaptă un răspuns, o reacție. Ele sunt motivate de o logică a comunicării și de un cadru strategic (de exemplu, transmiterea unor indicii universale folosite în activitățile de terorism sau a unor simboluri culturale clare pentru un public-țintă), și au în vedere atingerea unor scopuri precise (o demonstrație, un protest de stradă, un blocaj, un boicot). Pot fi însoțite de narațiuni strategice de susținere sau de confirmare.

Dezinformarea și fake news constituie o tehnică bazată pe distribuirea de conținut menit să înșele și să inducă publicul în eroare. Metodele de agregare sunt falsificarea, scurgerea de informații și difuzarea intenționată a unor știri verificabil false. În media digitală, dezinformarea se poate realiza prin înșelătorii de rang prim sau secund, inventarea de fapte false și amplificarea lor sau crearea de instituții media de fake news (media alternative). Înșelătoriile de rang prim sau secund sunt create prin selectarea informațiilor și omiterea faptelor care contrazic narațiunea, scoaterea din context, inserarea de declarații mincinoase, crearea de deepfakes, shallowfakes, cheapfakes sau dumbfakes (imagini și videoclipuri manipulate într-o manieră mai mult sau mai puțin credibilă), propagandă, satiră, parodie, publicitate de tip clickbait.

În ceea ce privește falsificarea și scurgerea de informații, această tehnică reprezintă un instrument eficient de atribuire, unor surse credibile, a dezinformării cu falsă autenticitate, pentru a discredita actorii vizați și pentru a influența negativ atitudinile și comportamentul publicului. Fabricarea de documente așa-zis oficiale (cu antete, ștampile și semnături false) și atribuirea acestora unor instituții sunt acțiuni incipiente în crearea unui context pentru o narațiune falsă. De asemenea, informațiile scurse (furate sau obținute prin mijloace nelegale, cum ar fi e-mailurile de tip phishing) contaminează mediul informațional și paralizează factorii de decizie, care trebuie să facă dovada falsului.

Dovezile false speculează disponibilitatea oamenilor de a percepe ca fiind adevărat ceea ce cred ei a fi adevărat. În baza efectelor Woozle și „satele lui Potemkin”, utilizatorii presupun că sursele citate într-un conținut sunt neapărat autentice și nu mai trebuie puse la îndoială. Tehnica de dezinformare se bazează pe specificul iluzoriu al rețelelor sociale, în care sunt active conturi false, ce pot fi utilizate ca aparate de fabricat informații pentru narațiuni specifice.

Tehnica utilizării identităților înșelătoare are ca scop să transfere legitimitatea unui actor către unul nelegitim. Identitatea poate fi exploatată prin trei tactici care interrelaționează: shilling-ul (recenzii mincinoase), impostorii (uzurpatorii care pretind că au o autoritate și emit opinii în acord cu aceasta) și deturnarea (folosirea unui conținut sau a unui eveniment social cu alt scop decât cel inițial).

Boții, marionetele și botnets constituie instrumente puternice de influențare, datorită capacității lor de a exploata vulnerabilități sociale, cognitive, dar și tehnice. Ei sunt amplificatori pentru alte tactici de influențare.

Trolling și flaming reprezintă o tehnică de dezinformare în care, prin troli sau boți, se urmărește declanșarea reacțiilor emoționale a utilizatorilor la expunerea unui conținut controversat. Trolii pot contribui la polarizarea dezbaterilor, la expandarea spiralei tăcerii și la distragerea atenției de la subiecte importante, perturbând în acest fel formarea opiniei publice.

Extensiv utilizate sunt, însă, umorul și mema, datorită faptului că atrag atenția asupra unor subiecte sensibile, într-o manieră ușor accesibilă publicului larg. Sub aparența unor imagini amuzante, meme-le reprezintă idei culturale, care sunt dificil de controlat odată ce au început să se răspândească, iar utilitatea lor a fost dovedită în legitimarea unor idei, opinii și conținuturi controversate, care s-au viralizat.

Retorica malignă este folosită în scopuri diverse, cu intenția generală de a submina, delegitima și distrage atenția adversarilor. Instrumentele caracteristice sunt: etichetarea, whataboutismul (acuzarea acuzatorului), tehnica ad hominem (atacul la persoană), tehnica „omului de paie” (atribuirea unor caracteristici false), tehnica galopului lui Gish” (potop de argumente false) și tehnica transferului (asocierea argumentelor cu categorii de gândire controversate sau cu o conotație negativă).

Pe măsură ce și-au demonstrat efectele, aceste tehnici au fost incluse și asamblate în stratageme complexe de influențare a informației în mediul online, manipularea rămânând sub pragul de detecție, fapt ce indică nivelul de rafinare a practicilor manipulatoare digitale (Pamment et al., 2018). Printre modelele de stratageme de influențare se numără: propaganda neagră (urmărește să înșele publicul-țintă cu privire la originea informațiilor), stratagema „Bait & Point & Shriek” – Momește & Țintește & Strigă (captează atenția publicului, distorsionează și amplifică anumite declarații inocente sau ambigue, în moduri care sunt dificil de anticipat), spălarea de informații (decontextualizarea informațiilor și amplificarea surselor), inundarea (transmiterea pe mai multe canale a unui volum mare de informații, într-un mod rapid, continuu și repetitiv). Alte stratageme sunt: „Majoretele” (se urmărește transformarea întregii societăți într-o cameră de ecou și deturnarea atenției publice către anumite subiecte, care sunt amplificate de boți, botnets și troli), „Raidul” (presupune un atac informațional brusc, care are scopul de a surprinde, bulversa și epuiza adversarul), polarizarea (activități de influență care susțin două puncte de vedere opuse, pentru a forța coagularea opiniilor la una dintre extreme) și stratagema „Hack & Mix & Release” – Piratează & Amestecă & Publică (vizează piratarea sistemelor IT, contaminarea unei informații și publicarea ei, pentru a submina sau incrimina în mod fals persoane sau instituții).

Efectele fake news asupra încrederii cetățenilor în instituțiile statului

Prin modurile variate în care speculează vulnerabilitățile din sistemul media și pe cele socio-cognitive ale utilizatorilor de platforme sociale, fake news interferează în procesele de formare a opiniei publice. Dezbaterea liberă, pe care se fundamentează democrația, este astfel periclitată, iar cetățenii devin captivi într-o dinamică de tipul „noi versus ei”, în care credibilitatea nu mai reprezintă un reper primar, fiind înlocuită de atașamentul față de o idee sau față de comunitatea digitală care susține această idee (Bratu, 2022).

Chelcea (2006) a definit opinia publică drept „procesul psihosociologic interactiv de agregare a judecăților evaluative, atitudinilor și credințelor referitoare la o problemă socială, ale unui număr semnificativ de persoane dintr-o comunitate, care, într-o formă sau alta, se exprimă deschis.” (p. 33). Social media s-au insinuat, însă,  în acest proces interactiv, rolul lor devenind treptat unul mai mult de cultivare și sedimentare a unor judecăți, atitudini și credințe, decât de difuzare a informațiilor. Dean (2010) a analizat modul în care participanții sunt angrenați în comunicare pe platformele sociale și a concluzionat că mediul online reprezintă „un peisaj de comunități încărcate afectiv” (p. 21), unde se produc și se distribuie emoții, care stimulează afectiv utilizatorii. În condițiile în care abilitatea algoritmilor de a simula atașamentul și de a fabrica știri false este infinită, rezultă că esența distorsiunii informaționale constă în subiectivismul receptorului, pentru care nu este important felul în care este prezentată o poveste, ci povestea însăși, care poate favoriza un context dat.

Rogers și Niederer (2020) au afirmat că transformarea media emergente în arme (social media weaponization) este rezultatul stimulării excesive a emoțiilor extreme ale utilizatorilor atunci când sunt confruntați cu un conținut controversat. Prin prioritizarea acestui conținut de către algoritmi și boți, se însămânțează discordia și este generat discursul urii (hate speech), termen folosit pentru a indica toxicitatea mediului digital. Discursul urii și amploarea comentariilor hiperpartizane sunt expresia unei „infrastructuri alternative de cunoaștere”, care caracterizează o societate post-adevăr, în care autoritatea experților este contestată, competența instituțiilor statului este pusă la îndoială, iar sentimentul de alienare socială primează.

Conform Dicționarului Oxford, post-adevărul denotă „circumstanțe în care faptele obiective sunt mai puțin influente în privința modelării opiniei publice decât apelurile la emoții și credințe personale”. Supraaglomerarea din ecosistemul informațional actual, în care oricine se poate erija în rolul de creator și difuzor de conținut, forțează mintea umană să revină la comenzi rapide euristice, pentru a face față abundenței de informații. Astfel, în consumul de știri au prioritate cele care sunt mai ușor de procesat, inclusiv informațiile alternative, indiferent de gradul în care aceste știri îndeplinesc principalele criterii de adevăr și indiferent de poziția autorităților, transmisă pe canalele oficiale (Greifeneder et al., 2021). Pe același plan cu faptele alternative se aliniază aserțiunile post-adevăr (post-truth claims) și teoriile conspiraționiste, care prezintă o lume convenabilă pentru autorul lor și „nu sunt produsul rațiunii, ci al fanteziei” (Berghel, 2017, citat în Oprea, 2021, p. 102).

Din cauza apariției mai multor informații alternative, care conturează realități distincte, comunicarea la nivel social devine problematică, deoarece se dezechilibrează balanța între fapte și opinii, rutina instituțională (expresia ordinii sociale) este bulversată, sunt ranforsate tensiunile între diferite grupuri, sunt exacerbate emoțiile negative precum furia și anxietatea, și este diminuată empatia, după cum a explicat Buluc (2020). În același timp, linia difuză dintre adevăr și minciună, cauzată de știri false și informații alternative, conduce la instalarea unei stări de confuzie socială, în care luarea deciziilor este înăbușită, iar incertitudinile percepute de cetățeni creează un vid de încredere. Toxicitatea dezinformării se datorează și faptului că alimentează o gamă contradictorie de sentimente, care paralizează liberul arbitru. Pe acest fond, „neglijența și lipsa preocupărilor legate de autenticitatea informațiilor pot contribui la o receptivitate mai ridicată față de știrile false, alături de o tendință semnificativ mai mare de distribuire a acestora” (Bostan & Maftei, 2022, p. 98). În cercul vicios al știrilor false intră și subiectele medicale, consecințele putând fi unele grave pentru sănătatea și viața cetățenilor care se încred în sfaturile din social media mai mult decât în recomandările profesioniștilor din domeniul sanitar, după cum au indicat mai multe cercetări (Cacciatore, 2021).

Campaniile electorale sunt perioadele în care ecosistemul informațional devine un teren fertil pentru dezinformare și se intensifică maratonul știrilor false. În efortul lor de a confisca agenda publică, manipulatorii uzează de toate pârghiile pentru a destabiliza instituțiile publice și pentru a slăbi sistemele democratice din interior. Tehnicile de influențare digitală sunt combinate cu cele de control media (presiune comercială și publicitară, cenzură). Dacă unele dintre aceste practici, transparente sau subtile, sunt folosite de actori politici interni, altele sunt inițiate de actori externi, care, prin împuterniciți (proxy), profită de ferestrele de oportunitate pentru a pune în operare amenințări asimetrice transnaționale (dezinformările orchestrate de Rusia, în preajma alegerilor din SUA, 2016, sau atacurile cibernetice desfășurate de China, Rusia, Coreea de Nord, Iran). Astfel de tactici au fost utilizate și în timpul situațiilor de criză (de exemplu, Covid-19), care sunt speculate de obicei de regimurile autoritare, pentru a-și crea oportunități din punct de vedere strategic și pentru a-și redimensiona sferele de putere (Kalathil, 2020).

Cercetătorii de la Oxford Internet Institute (OII) au confirmat, în 2020, în urma unui studiu derulat în 81 state din lume (printre care Brazilia, Canada, China, Germania, Polonia, Taiwan, Rusia, Ucraina și Statele Unite), că propaganda computațională este un fenomen în expansiune, care transformă boții în formatori de opinie. Bradshaw et al. (2020) au evidențiat că, în statele conduse de regimuri autoritare, platformele sociale sunt folosite ca principale mijloace de control social, mai ales în perioada crizelor politice și de securitate. În statele democratice, însă, rețelele sociale sunt folosite pentru propagandă ideologică, fie prin tehnici de manipulare la scară socială, fie prin tehnici de segmentare a unor categorii de public. De exemplu, în timpul campaniei electorale din SUA, din anul 2016, pe Twitter au fost activi sute de boți politici, care s-au erijat în falși lideri de opinie.

Cu toate că impactul platformelor în mobilizarea socială nu a putut fi determinat cu exactitate prin cercetări, evenimentele de tipul „Primăvara arabă” (mișcări de protest care au avut loc în mai multe țări din Orientul Mijlociu și Africa de Nord, în perioada 2010 – 2011) confirmă rolul substanțial al rețelelor sociale în inițierea și organizarea acțiunilor de stradă, dezvoltarea unei baze populare de susținere a protestelor și construirea de rețele internaționale de sprijin (Kringen, 2012).

Un studiu realizat în 2021 în cadrul Departamentului de Politici pentru Relații Externe de la Parlamentul European a indicat că, într-o perioadă de neîncredere crescândă în instituții și în media tradiționale, confirmată de măsurători sociologice realizate la nivelul mai multor țări, fake news contribuie nu doar la erodarea coeziunii sociale, ci și a democrației. Știrile false pot semăna neîncrederea în diferiți piloni ai instituțiilor democratice, inclusiv în instituțiile publice precum guvernele, parlamentele și instanțele sau procesele acestora, personalitățile publice, precum și jurnaliștii și mass-media liberă. De asemenea, pot denatura procesele electorale și pot favoriza nesupunerea civilă. Mai mult de atât, tacticile de manipulare afectează drepturile omului, cum sunt dreptul la libertatea de gândire, dreptul de a avea opinii fără amestec, dreptul la intimitate, la libertatea de exprimare, dreptul de a participa la treburile publice și de a vota la alegeri (Colomina et al., 2021).

Combaterea dezinformării, componentă a culturii de securitate

Amplitudinea fenomenului fake news constituie, la nivel mondial, subiectul a numeroase cercetări care relevă că, în combaterea dezinformării, abordările în legătură cu influența tehnologiei și influența oamenilor nu ar trebui să fie văzute ca fiind excluse reciproc. Platformele sociale au devenit un vehicul pentru dezinformare și atacuri politice din afara granițelor statale, iar agenții dezinformatori sunt, deopotrivă, oameni și roboți. În aceste condiții, distilarea ecosistemului informațional poate fi considerată o provocare ce ține de confruntarea între inteligența umană și inteligența artificială.

Un studiu realizat în 2018, în cadrul Institutului de Tehnologie din Massachusetts (MIT), SUA, a indicat nu doar că știrile false s-au răspândit pe Twitter mai mult, mai repede, mai profund și la o scară mai largă decât știrile adevărate, ci și faptul că aceste știri s-au viralizat datorită oamenilor, nu boților. Dezinformarea a vizat toate categoriile de informații, iar efectele au fost mai pronunțate pentru știrile politice decât pentru cele despre terorism, dezastre naturale, știință, legende urbane sau informații financiare (Vasoughi et al., 2018).

Falsitatea este un simptom al unor fenomene mai ample, care afectează societățile care înfruntă schimbări rapide, precum cea economică, nesiguranța și extremismul, ce pot duce la polarizare, tensiuni sociale și neîncredere în instituțiile democratice, a reliefat un raport din 2019 al Institutului pentru Studii de Securitate al Uniunii Europene (EUISS). În cadrul acestui document, Parkes (2019) a arătat că unele dintre cele mai eficiente mijloace de combatere a dezinformării digitale rezidă în elementele definitorii ale societăților.

În condițiile în care este de așteptat ca dezvoltarea tehnologiei și a aplicațiilor să crească și să amplifice puterea dezinformării, reziliența societală trebuie să includă și să se bazeze pe reziliența digitală, pentru a putea preveni atacurile cibernetice de orice natură, pentru a dezvolta abilități de adaptare, recuperare și răspuns individual la operațiuni caracteristice războiului informațional. Înțelegerea amenințărilor din mediul digital și a celor asociate lor, de pe scena națională și internațională, necesită capacitatea de a judeca clar și rațional, de angajare într-o gândire reflexivă și independentă. Aceste abilități definesc conceptul de „gândire critică”, un concept care presupune înțelegerea legăturilor logice între idei; identificarea, construirea și evaluarea argumentelor; detectarea inconsecvențelor și a greșelilor comune în raționament; rezolvarea sistematică a problemelor; ierarhizarea informațiilor în funcție de relevanță și de sursa lor; justificarea propriilor convingeri și valori.

Enciclopedia de Filosofie Stanford a reliefat importanța gândirii critice a unui individ atât pentru el însuși, cât și pentru societate, în raport cu suma factorilor care converg către o astfel de gândire: atenția, spiritul dubitativ, încrederea în sine, curajul, mintea deschisă, dorința de a suspenda judecata, încrederea în rațiune, căutarea dovezilor înainte de a crede convingerile cuiva și căutarea adevărului. În măsura în care tehnicile de manipulare orchestrate pe platformele sociale țintesc vulnerabilitățile socio-cognitive ale utilizatorilor, gândirea critică devine o resursă-cheie pentru securitatea digitală. Posibilitățile ca dezinformarea să fie recunoscută și dezarmată cresc odată cu stimularea abilităților de observare, abilităților emoționale, dubitative, creative, inferențiale, abilităților de a experimenta, de a documenta, de a analiza, de a discerne și de a decide.

Se întrevede astfel un posibil răspuns la criza în care se află lumea de astăzi, cauzată de dezordinea informațională care, la rândul ei, intensifică toate celelalte crize, deoarece „atunci când pseudo-informațiile devin la fel de răspândite, de persuasive și de distribuite precum informațiile factuale, legitime, se creează o reacție în lanț de efecte negative” (Bârgăoanu, 2021).

În această situație, a apărut imperativul ca guvernele democratice și societatea civilă să acționeze împreună împotriva dezinformării, în cadrul unei strategii multistratificate, fundamentată pe valorile democratice, după cum au afirmat experții în studii de securitate ai Parlamentului European, într-un raport publicat în 2019. Această abordare presupune, după Parker (2019), un angajament social pe termen lung cu toate instituțiile, din toate domeniile, incluzând aici mediul academic și media tradiționale.

Necesitatea educației media a fost subliniată și într-un studiu din 2016 al World Economic Forum. Cercetarea a indicat cele mai relevante trei abilități cu impact asupra modelelor de afaceri și asupra piețelor muncii, în condițiile perturbărilor pe scară largă produse de Globalizarea 4.0 – 5.0, ca urmare a dezvoltării accelerate a inteligenței artificiale și a tehnologiilor de învățare automată, a roboticii, nanotehnologiei, imprimării 3-D, a geneticii și a biotehnologiei. Aceste abilități se referă la gândire critică, creativitate și aplicarea lor în societatea post-adevărului. Educația pentru noile media nu înseamnă doar asimilarea unor cunoștințe în vederea selectării surselor credibile de informare, ci și dezvoltarea capacității de a recunoaște limitele, posibilitățile de expresie și caracteristicile social media, de a discerne între știință și pseudo-știință, de a anticipa pericolele pe care le reprezintă adevărul iluzoriu, indus prin repetiție.

Într-un context internațional în schimbare, cu provocări și riscuri majore, pe toate palierele, la adresa ordinii globale bazate pe respectarea principiilor multilateralismului, a democrației liberale și a sacralității drepturilor omului, securitatea statelor a devenit echivalentă cu reziliența. Strategia Globală a Uniunii Europene din 2016 și documentele care au precedat-o, inclusiv Busola Strategică a Uniunii Europene din 2022, au evidențiat că statul rezilient este un stat democratic care asigură dezvoltarea economică durabilă și care generează, într-un mod sistematic, încredere în propriile instituții, difuzând astfel o cultură a rezilienței, adică percepția predictibilității instituționale. Această predictibilitate creează emoții pozitive, cum sunt încrederea, optimismul sau asertivitatea, emoții tipice unei culturi de securitate.

Dacă securitatea a fost considerată multă vreme doar un atribut al puterii și o rezultantă a păcii, conceptul de „cultură de securitate” s-a cristalizat după ce s-au armonizat și omogenizat demersurile teoretice de cunoaștere polivalentă, multidisciplinară, a securității și a rolului social al acesteia. Astfel, cultura de securitate se referă la „conștientizarea, la nivelul cetățeanului și al grupurilor sociale, a valorilor, normelor și drepturilor care pot garanta așezarea vieții individuale și sociale pe temeiurile valorilor libertății și democrației.” (Rus Schupler, 2021).

Pe fondul globalizării și al interdependențelor specifice fenomenului, a devenit limpede că securitatea individului nu implică doar bunăstarea sa și siguranța sa în mediul social, pe care autoritățile au datoria să le furnizeze, odată cu sentimentul apartenenței la o matrice instituțională, ci implică și siguranța în mediul online. Scepticismul digital constituie un instrument de luptă împotriva războiul informațional, în măsura în care spiritul critic contribuie la creșterea rezilienței societale, prin diminuarea și destructurarea fricii, fatalismului și pesimismului, emoțiile tipice pentru cultura de insecuritate întreținută de fake news.

Concluzii

Analizând patologiile comunicării în era digitală, putem afirma că mediul informațional contemporan a depășit rolul de simplu canal de transmitere a mesajelor și s-a transformat într-un spațiu strategic de influență și competiție. Dezvoltarea accelerată a tehnologiilor digitale, asociată cu interesele economice ale platformelor și cu acțiunile actorilor statali și non-statali, a generat disfuncții persistente ale comunicării publice. Manipularea, propaganda computațională, dezinformarea și polarizarea nu reprezintă episoade izolate, ci vulnerabilități structurale ale ecosistemului digital, cu efecte directe asupra stabilității sociale.

              Aceste patologii afectează în mod profund încrederea cetățenilor în instituțiile statului și în mecanismele reprezentative. Fragmentarea spațiului public în comunități informaționale închise, dominarea emoției asupra rațiunii și relativizarea adevărului slăbesc capacitatea societății de a susține un dialog democratic funcțional. În aceste condiții, procesele electorale, dezbaterea publică și deliberarea rațională devin vulnerabile la influențe ostile pe fondul competiției globale pentru putere, iar democrația riscă să fie golită de conținut prin erodarea participării informate.

              Consolidarea democrației în era digitală presupune, prin urmare, mai mult decât reglementarea tehnologiilor sau combaterea punctuală a dezinformării. Este necesară întărirea rezilienței democratice prin educație civică și media sistematică, transparență instituțională și responsabilitate publică. O societate capabilă să distingă între informație și manipulare, să tolereze pluralismul de opinii fără a cădea în capcana polarizării și să mențină încrederea în instituțiile sale creează premisele unei democrații funcționale și adaptabile. În acest sens, cultura securității informaționale devine un instrument esențial pentru protejarea valorilor democratice și pentru menținerea autonomiei decizionale a cetățenilor într-un mediu digital plin de provocări și de pericole.

Bibliografie

  • Aspen Digital. (2021, mai 17). Disinfo Discussions: Decline in Trust with Ethan Zuckerman  [Video file]. https://www.youtube.com/watch?v=6JKN1GYY4I0
  • Bârgăoanu, A. (2018). #Fakenews: Noua cursă a înarmării. Evrika Publishing.
  • Bentzen, N. (2018). Computational propaganda techniques (PE 628.284). European Parliament. https://www.europarl.europa.eu/RegData/etudes/ATAG/2018/628284/EPRS_ATA(2018)628284_EN.pdf
  • Bostan, C. M., & Maftei, A. (2022). Fenomenul fake news. Mecanisme psihologice și sociale. Institutul European.
  • Bradshaw, S., Bailey, H., & Howard, P. N. (2021). Industrialized Disinformation 2020 Global Inventory of Organized Social Media Manipulation, Working Paper 2021.1. Oxford Internet Institute, University of Oxford. https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/127/2021/02/CyberTroop-Report20-Draft9.pdf
  • Bratu, D. D. (2022). Combaterea dezinformării. C. H. Beck.
  • Buluc, R. (2020). Atractivitatea fake news. Top Form.
  • Cacciatore, M. A. (2021). Misinformation and public opinion of science and health: Approaches, findings, and future directions. Proceedings of the National Academy of Sciences of the United States of America – PNAS, 118(15). https://doi.org/10.1073/pnas.1912437117
  • Chelcea, S. (2006). Opinia publică. Strategii de persuasiune și manipulare. Editura Economică.
  • Colomina, C., Sánchez Margalef, H., & Youngs, R. (2021). The impact of disinformation on democratic processes and human rights in the world (PE 653.635-). European Parliament, Policy Department for External Relations, Directorate General for External Policies of the Union. https://www.europarl.europa.eu/RegData/etudes/STUD/2021/653635/EXPO_STU(2021)653635_EN.pdf
  • Dâncu, V. (2017). Fake news sau fake concept? Sinteza, 39.
  • Dean, J. (2010). Affective Networks. MediaTropes, 2(2), 19–44.
  • Dobrescu, P. (2010). Viclenia globalizării. Asaltul asupra puterii americane. Institutul European.
  • Flaherty, E., & Roselle, L. (2018). Contentious narratives and Europe: Conspiracy theories and strategic narratives surrounding RT’s BREXIT news coverage. Journal of International Affairs. Special Issue, 71(1.5), 53–60.
  • Fiott, D., & Parkes, R. (2019). Hearts and minds. Enhancing societal resilience against disinformation. În Protecting Europe. The EU’s response to hybrid threats (pp. 34–41). European Union Institute for Security Studies (EUISS). https://www.jstor.org/stable/resrep21143
  • Greifeneder, R., Jaffé, M. E., Newman, E. J., & Schwarz, N. (2021). Psihologia fake news: Acceptarea, distribuirea și corectarea informațiilor false. Trei.
  • Guzman, A. L., & Lewis, S. C. (2020). Artificial intelligence and communication: A Human–Machine Communication research agenda. New media & Society, 22(1), 70–86. https://doi.org/10.1177/1461444819858691
  • Harari, Y. N. (2018). 21 de lectii pentru secolul XXI. Polirom.
  • Hitchcock, D. (2018). Critical Thinking. În Stanford Encyclopedia of Philosophy. https://plato.stanford.edu/entries/critical-thinking/
  • Kahneman, D. (2012). Gândire rapidă, gândire lentă. Publica.
  • Kalathil, S. (2020). The Evolution of Authoritarian Digital Influence: Grappling with the New Normal. PRISM, 9(1), 32–51.
  • Kringen, J. A. (2012). Worldwide: The Role of Social Media in Social Mobilization. Institute for Defense Analyses, IDA-4824. https://www.jstor.org/stable/resrep27004
  • McIntyre, L. (2018). Post-truth. MIT Press.
  • Negoiță, C. (2015). Mediamorfoze V. Reflectare, (de)formare și fake-news în spațiul mediatic și cultural. Tritonic.
  • Noggle, R. (2018). The Ethics of Manipulation. https://plato.stanford.edu/entries/ethics-manipulation/
  • Oprea, B. (2021). Fake news și dezinformare online: Recunoaște și verifică. Manual pentru toți utilizatorii de internet. Polirom.
  • Pamment, J. & Nothhaft, H. & Twetman, H. & Fjällhed, A. (2018). The role of communicators in countering the malicious use of social media. https://stratcomcoe.org/cuploads/pfiles/small_size_nato_report_-_role_of_communicatiors.pdf
  • Pleiffer, S. (2021). The Greater Transformation: Digitalization and the Transformative Power of Distributive Forces in Digital Capitalism. International Critical Thought, 11(4), 535–552. https://doi.org/10.1080/21598282.2021.2005656
  • Post-truth. (f.a.). În Oxford Dictionaries. Preluat în 5 ianuarie 2026, din https://www.oxfordlearnersdictionaries.com/definition/english/post-truth?q=post-truth
  • Rogers, R., & Niederer, S. (2020). The politics of social media manipulation. În The politics of social media manipulation (pp. 19–70). Amsterdam University Press. https://doi.org/10.2307/j.ctv1b0fvs5.3
  • Rus Schupler, G. (2021). Securitatea, între concept și drept cetățenesc. Intelligence în serviciul tău. https://intelligence.sri.ro/securitatea-intre-concept-si-drept-cetatenesc/
  • Shaping Europe’s digital future. (2020). Directorate-General for Communications Networks, Content and Technology, European Commission. 10.2759/091014
  • Shared Vision, Common Action: A Stronger Europe. A Global Strategy for the European Union’s Foreign And Security Policy. (2016). https://eeas.europa.eu/archives/docs/top_stories/pdf/eugs_review_web.pdf
  • Simileanu, V., & Nae, C. (2018). Geointelligence, de la informații la fake-news. Top Form.
  • Soetekouw, L., & Angelopoulos, S. (2022). Digital Resilience Through Training Protocols: Learning To Identify Fake News On Social Media. Information Systems Frontiers. https://doi.org/10.1007/s10796-021-10240-7
  • Stănciugelu, I., Tudor, R., Tran, A., & Tran, V. (2014). Teoria comunicării. Tritonic.
  • Tran, V., & Stănciugelu, I. (2007). Patologii și terapii comunicaționale. Curs universitar. Comunicare.ro.
  • Tzu, S. (2019). Arta războiului. Cartex.
  • Van Dijk, T. A. (2006). Discourse and manipulation. În Discourse Society 2006; 17; 359. https://journals.sagepub.com/doi/10.1177/0957926506060250
  • Vasoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. 359(6380), 1146–1151. https://doi.org/DOI: 10.1126/science.aap9559
  • Volkoff, V. (2009). Tratat de dezinformare. Antet Revolution.
  • Wardle, C., & Derakhshan, H. (2017). Information disorder. Toward an interdisciplinary framework for research and policy making (DGI(2017)09). Council of Europe. https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c
  • Woolley, S. C., & Howard, P. N. (f.a.). Political Communication, Computational Propaganda, and Autonomous Agents. International Journal of Communication, 10(2016), 4882–4890.
Follow Mihaela Hușanu:
Consilier, Camera Deputaților, Birou Parlamentar: Elaborarea și implementarea strategiei de comunicare. Master, Școala Națională de Studii Politice și Administrative București, Facultatea de Comunicare și Relații Publice

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *