Home » Blog » Arhiva » Implementarea inteligenței artificiale în securitatea națională

Implementarea inteligenței artificiale în securitatea națională

Sfetcu, Nicolae (2024), Implementarea inteligenței artificiale în securitatea națională, Intelligence Info, 3:2, DOI: 10.58679/ii53011, https://www.intelligenceinfo.org/implementarea-inteligentei-artificiale-in-securitatea-nationala/

 

Implementing Artificial Intelligence in National Security

Abstract

The implementation of artificial intelligence in national security addresses various critical issues, including defense capability development, cybersecurity, intelligence analysis, and ethical considerations. This essay explores the multiple implications of integrating artificial intelligence technologies into national security frameworks, focusing on benefits, implementation strategies, challenges, and ethical concerns.

Keywords: intelligence services, national security, artificial intelligence, AI technologies, ethics

Rezumat

Implementarea inteligenței artificiale în securitatea națională abordează diverse aspecte critice, inclusiv îmbunătățirea capacităților de apărare, securitatea cibernetică, analiza intelligence și considerații etice. Acest eseu explorează implicațiile multiple ale integrării tehnologiilor inteligenței artificiale în cadrele de securitate națională, concentrându-se pe beneficii, strategii de implementare, provocări și preocupări etice.

Cuvinte cheie: servicii de informații, securitatea națională, inteligența artificială, tehnologii IA, etica

 

INTELLIGENCE INFO, Volumul 3, Numărul 2, Iunie 2024, pp. xxx
ISSN 2821 – 8159, ISSN – L 2821 – 8159, DOI: 10.58679/ii53011
URL: https://www.intelligenceinfo.org/implementarea-inteligentei-artificiale-in-securitatea-nationala/
© 2023 Nicolae Sfetcu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.

 

Implementarea inteligenței artificiale în securitatea națională

Ing. fiz. Nicolae SFETCU, MPhil[1]

nicolae@sfetcu.com

[1] Cercetător – Academia Română – Comitetul Român de Istoria și Filosofia Științei și Tehnicii (CRIFST), Divizia de Istoria Științei (DIS), ORCID: 0000-0002-0162-9973

 

Introducere

Apariția inteligenței artificiale (IA) a inaugurat o nouă eră în diferite sectoare, inclusiv în securitatea națională. Potențialul IA de a procesa și analiza cantități mari de date la viteze fără precedent oferă avantaje semnificative în identificarea amenințărilor, procesele de luare a deciziilor și optimizarea alocării resurselor. Cu toate acestea, integrarea inteligenței artificiale în securitatea națională prezintă, de asemenea, provocări unice și dileme etice, variind de la dependența de tehnologie până la potențialul sistemelor de arme autonome.

Deși IA nu a intrat încă pe deplin în arena de luptă, specialiștii prezic un mare impact al IA asupra războiului în viitor[1][2]. Criticii IA afirmă că există posibilitatea ca problemele actuale de siguranță cu IA să fie insurmontabile și să facă IA inadecvată pentru aplicații militare(Sfetcu 2024). Adoptarea IA poate fi stopată și de un management slab al așteptărilor. Cu toate acestea, majoritatea analiștilor cred ca IA va avea cel puțin un impact semnificativ asupra desfășurării războaielor, putând „produce îmbunătățiri dramatice ale eficienței militare și ale potențialului de luptă.”[3]

În același timp, există posibilitatea ca sistemele AI să inducă o stare de instabilitate strategică: existența sistemelor de inteligență artificială la adversari poate fi un stimulent pentru a lovi primul rând un adversar cu capacități similare, având ca rezultat o escaladare sau un calcul greșit[4]. Astfel evaluarea corectă a impacturilor viitoare poate fi o provocare[5][6].

Oportunități

Reducerea părtinirii cognitive: AI poate ajuta la reducerea prejudecăților cognitive pe care analiștii umani le pot introduce din neatenție în procesul de analiză, oferind informații obiective și bazate pe date.

Automatizare: Sarcinile de rutină și repetitive, cum ar fi colectarea de date, pot fi automatizate cu inteligența artificială, eliberând analiștii umani să se concentreze pe aspecte mai complexe și mai creative ale analizei inteligente.

Detectare îmbunătățită a amenințărilor: Algoritmii bazați pe inteligență artificială pot analiza cantități mari de date pentru a identifica modele care indică potențialele amenințări de securitate, cum ar fi atacuri cibernetice sau activități teroriste, permițând acțiuni preventive.

Analiză îmbunătățită a informațiilor: Sistemele de inteligență pot procesa și analiza datele de informații mai eficient decât oameni, oferind perspective mai profunde asupra amenințărilor emergente și a tendințelor geopolitice.

Sisteme autonome: Dronele autonome, submarinele și alte vehicule fără pilot conduse de AI pot efectua operațiuni de recunoaștere, supraveghere și chiar luptă cu risc redus pentru personalul uman.

Securitate cibernetică: Algoritmii AI pot detecta și să răspundă la amenințările cibernetice în timp real, consolidând apărarea împotriva tentativelor de hacking, a încălcării datelor și a altor atacuri cibernetice.

Suport pentru decizii: Sistemele de asistență pentru decizii bazate pe inteligență artificială pot ajuta liderii militari și guvernamentali să ia decizii în cunoștință de cauză, analizând scenarii complexe și recomandând optime. cursuri de acțiune.

Eficiență sporită: AI accelerează procesarea și analiza datelor, permițând agențiilor să răspundă mai rapid la amenințări.

Îmbunătățirea capacităților de apărare

Tehnologiile IA pot îmbunătăți semnificativ capacitățile de apărare ale unei națiuni. De exemplu, sistemele de supraveghere bazate pe inteligență artificială pot monitoriza zone vaste folosind drone și imagini prin satelit, identificând potențialele amenințări cu o mai mare acuratețe decât operatorii umani. În plus, algoritmii IA pot simula numeroase scenarii pentru a ajuta la planificarea strategică, oferind strategilor militari informații bazate pe date pentru a lua decizii informate.

AI optimizează logistica și gestionarea lanțului de aprovizionare în sectorul apărării, asigurând o alocare eficientă a resurselor, întreținerea predictivă a echipamentelor și operațiunile de asistență simplificate.

Simulările bazate pe inteligență artificială și mediile virtuale de antrenament oferă scenarii realiste și adaptabile pentru pregătirea militară, îmbunătățind capacitatea de pregătire și răspuns ale forțelor de securitate.

AI îmbunătățește capacitățile sistemelor de supraveghere prin analize avansate de imagine și video, permițând recunoașterea automată a obiectelor, activităților și persoanelor din cantități mari de date. Acest lucru ajută la securitatea frontierei, la monitorizarea mulțimilor și la identificarea potențialelor amenințări.

În aplicațiile militare, tehnologiile AI sunt integrate în sisteme autonome, cum ar fi dronele și roboții, pentru supraveghere, recunoaștere și operațiuni țintite. AI sprijină, de asemenea, luarea deciziilor în sistemele de comandă și control, optimizând planificarea și execuția misiunii.

AI ajută la identificarea și urmărirea activităților și rețelelor teroriste prin analizarea tiparelor de comunicare, a tranzacțiilor financiare și a activităților din rețelele sociale, contribuind la strategii de combatere a terorismului mai eficiente.

Securitate cibernetică

În domeniul securității cibernetice, IA joacă un rol crucial în apărarea împotriva atacurilor cibernetice. Algoritmii AI pot detecta anomalii, modele și comportamente care indică amenințările cibernetice mai eficient decât metodele tradiționale. Această abordare proactivă a securității cibernetice este vitală în protejarea infrastructurii critice și a informațiilor sensibile împotriva amenințărilor cibernetice din ce în ce mai sofisticate.

Analiza intelligence

Tehnologiile AI au transformat colectarea și analiza informațiilor. Algoritmii de învățare automată pot analiza cantități mari de date din diverse surse, inclusiv rețelele sociale, interceptările de comunicații și imaginile prin satelit, pentru a identifica modele și conexiuni care ar putea evita munca analiștilor umani. Această capacitate permite serviciilor de informații să detecteze potențialele amenințări mai rapid și mai precis, facilitând răspunsuri în timp util și eficiente, identificând informații relevante, tendințe și conexiuni care le-ar putea scăpa analiștilor umani. Acest lucru sprijină luarea deciziilor mai informate și planificarea strategică. Utilizând analiza de date mari, AI poate prognoza potențialele amenințări de securitate sau incidente prin analizarea tiparelor și a corelațiilor din seturi mari de date. Această capacitate de predicție este valoroasă pentru acțiuni preventive împotriva terorismului, insurgenței și a altor preocupări de securitate națională.

Există trei moduri esențiale de a folosi IA pentru a analiștii din intelligence[7][8]: 1) automatizarea cognitivă, care implică delegarea către mașini a sarcinilor, precum dezvoltarea unor modele de limbaj, precum ChatGPT[9], susținute de rețele neuronale[10][11]; 2) filtrarea, marcarea și triajul pentru procesarea datelor, și analiza informațiilor, precum identificarea conexiunilor[12], filtrarea informațiilor în masă, sau marcarea[13]  analizei comportamentale la procesarea și extragerea datelor[14].

Percepțiile analiștilor sunt extrem de importante pentru adoptarea cu succes a IA[15]. Diverse sondaje sugerează că analiștii sunt cei mai sceptici față de IA, în comparație cu personalul tehnic, managementul sau directorii(Sfetcu 2024). Din această cauză, managementul trebuie să se concentreze pe educarea acestora și pe reconfigurarea proceselor pentru a integra fără probleme IA în fluxurile de lucru. Această sarcină ar fi ușurată de o interfață cât mai prietenoasă a instrumentelor, de ex. prin o vizualizare a modului în care modelul a ajuns la concluzie[16]. Bloomberg a raportat că divizia Open-Source Enterprise a Agenției Centrale de Informații din SUA a dezvoltat un instrument intern de inteligență artificială, conceput pentru a ușura viața angajaților și analiștilor săi, CIA intenționând să extindă instrumentul în întreaga comunitate de informații din SUA. Noul instrument va permite analiștilor să discute și să pună întrebări despre modelul IA[17].

Strategii de implementare

DoD a publicat o strategie AI clasificată[18] care include sarcini precum înființarea unui Centru Comun de Inteligență Artificială (JAIC”)[19], publicarea unei foi de parcurs strategic pentru dezvoltarea și implementarea IA și ghidurile privind „politicile etice, legale și de altă natură adecvate pentru Departament care guvernează dezvoltarea și utilizarea sistemelor și tehnologiilor activate de inteligența artificială în situații operaționale”[20], înființarea unei Comisii Naționale de Securitate pentru Inteligența Artificială pentru evaluare și recomandări, și dezvoltarea unei strategii de educație pentru inteligența artificială pentru angajații serviciilor de informații[21].

Alte posibile abordări în cadrul unei strategii pentru implementarea inteligenței artificiale sunt: politici pentru dezvoltarea și utilizarea aplicațiilor militare AI, dezbaterea privind sistemele de arme autonome letale (LAWS) care pot folosi AI, concurența internațională pe piața AI, reformarea politicilor de date asociate cu AI, standarde stricte de securitate și problema pierderii drepturilor de proprietate intelectuală în contextul parteneriatului cu firme externe[22].

Pentru o pregătire adecvată în implementarea inteligenței artificiale(Sfetcu 2024) în cadrul serviciilor de informații, în apărare și pentru securitatea națională, liderii și personalul angajat trebuie să țină cont de următoarele principii[23]:

  • Trebuie să se schimbe fundamental modul în care este gândită tehnologia modernă, ca o forță puternică de perturbare și creație.
  • IA trebuie să fie în centrul tuturor întreprinderilor viitoare.
  • Este necesară adaptarea viziunii asupra lumii, protejarea datelor și calitatea informațiilor obținute din IA.
  • Capacitatea științifică, prosperitatea, diplomația și sănătatea pe termen lung sunt fațete ale securității naționale, asigurate prin politici sprijinite pe termen lung;
  • Trebuie regândită natura muncii, abilitățile de care au nevoie oamenii, și modul de organizare.
  • Toate instituțiile implicate în securitatea națională au un rol esențial în această schimbare[24].

Un exemplu de succes: SABLE SPEAR

Proiectul SABLE SPEAR(Sfetcu 2024) este un exemplu pozitiv despre această nouă abordare metodologică a analizei intelligence prin utilizarea inteligenței artificiale în domeniul open-source, dezvoltat de Agenția de Informații pentru Apărare (DIA)[25]. Brian Drake, liderul unei echipe de analiști, încerca să înțeleagă fluxurile globale ilegale de fentanil, unul dintre puternicele opioide sintetice care provoacă zeci de mii de decese în fiecare an. DIA a inițiat, în acest scop, o colaborare cu un mic start-up din Silicon Valley cu activitatea în aplicarea inteligenței artificiale. Scopul a fost monitorizarea unei rețele complexe, ilegale, cât mai aproape de timp real posibil. Echipa lui Drake s-a dus la Palo Alto cu doi cercetători de la Agenția Națională de Informații Geospatiale (NGA) experți în limbajul IA, solicitând companiei să dezvolte un sistem pentru evidențierea rețelelor asociate cu distribuția de fentanil ilicit.

După patru luni, compania a transmis constatările inițiale, rezultatele companiei fiind cu mult superioare celor ale DIA. Abordarea IA a identificat variabile relevante din punct de vedere analitic pe care analiștii probabil nu le-ar fi găsit niciodată și au făcut asocieri instantanee pentru aceste variabile în seturi de date multiple, adesea complexe. În această primă fază, ceea ce a ieșit în evidență a fost puterea mult superioară a IA.

După perfecționarea rezultatelor din faza asociativă, echipa lui Brian a validat ieșirile IA care au permis ”producerea de inteligență strategică și a transmis claritate și încredere în comportamentele empirice asociate cu entitățile individuale”, identificând volumele de fluxuri ilicite de fentanil, rutele principale și entitățile care dețin cea mai mare cotă de piață. [26]

Provocări și direcții viitoare

Implementarea IA în securitatea națională nu este lipsită de provocări.

Securitatea datelor și confidențialitatea: Sistemele AI se bazează pe cantități mari de date, ridicând îngrijorări cu privire la securitatea datelor, confidențialitatea și potențialul de utilizare greșită sau acces neautorizat. Preocupările cu privire la confidențialitate, libertățile civile, implicațiile etice ale sistemelor autonome în război și potențialul ca AI să fie utilizat în mod rău intenționat trebuie abordate. În plus, fiabilitatea și transparența sistemelor AI, în special în procesele de luare a deciziilor, sunt cruciale pentru a menține încrederea și responsabilitatea.

Prejudecăți și corectitudine: Algoritmii AI pot prezenta părtiniri pe baza datelor pe care sunt instruiți, conducând la rezultate neloiale sau discriminatorii, în special în domenii sensibile, cum ar fi evaluarea amenințărilor sau aplicarea legii. Una dintre provocările principale în implementarea IA în securitatea națională este dependența tehnologiei de calitatea și integritatea datelor. Algoritmii IA necesită cantități mari de date pentru a învăța și a lua decizii. Cu toate acestea, dacă aceste date sunt părtinitoare sau manipulate, pot duce la rezultate inexacte sau dăunătoare. În plus, există și problema vulnerabilității IA la atacurile adverse, în care actorii rău intenționați manipulează datele de intrare pentru a cauza funcționarea defectuoasă a sistemului IA.

Cadre de reglementare și juridice: Progresul rapid al tehnologiei AI depășește dezvoltarea cadrelor de reglementare și juridice, creând incertitudine în ceea ce privește responsabilitatea, răspunderea și supravegherea.

Atacurile adverse: Sistemele AI sunt vulnerabile la atacuri adverse, în care actorii rău intenționați manipulează datele de intrare pentru a înșela sau compromite procesele de luare a deciziilor bazate pe inteligență artificială.

Dileme etice: utilizarea IA în securitatea națională ridică dileme etice, inclusiv potențialul armelor autonome de a încălca principiile proporționalitate, discriminare și demnitate umană în conflictele armate. Privind în viitor, este esențial ca factorii de decizie și experții în securitate să abordeze aceste provocări și preocupări. Elaborarea de norme și acorduri internaționale privind utilizarea IA în securitatea națională, inclusiv limitări ale armelor autonome, este esențială. În plus, ar trebui să se pună accent pe dezvoltarea unor sisteme IA transparente și responsabile, asigurându-se că supravegherea umană rămâne o componentă centrală a oricărei strategii de securitate bazate pe inteligență artificială.

Considerații etice și juridice

Dezvoltarea sistemelor de arme autonome, capabile să ia decizii de viață și de moarte fără intervenția umană, ridică întrebări morale profunde. Lipsa transparenței și a răspunderii în procesele de luare a deciziilor în domeniul inteligenței artificiale ridică, de asemenea, îngrijorări, în special în contextul armelor autonome letale. În plus, posibilitatea ca IA să fie utilizată în sistemele de supraveghere în masă amenință drepturile individuale la confidențialitate, subliniind necesitatea unor cadre juridice solide pentru a reglementa utilizarea IA în securitatea națională.

Pentru a face față acestor provocări, guvernele și organizațiile de apărare dezvoltă politici și cadre care să ghideze dezvoltarea etică și implementarea tehnologiilor AI, punând accent pe transparență, responsabilitate și supraveghere umană.

Control uman și responsabilitate: Sistemele AI ar trebui să fie concepute pentru a asigura supravegherea umană și responsabilitatea, în special în procesele critice de luare a deciziilor care implică utilizarea forței sau protecția drepturilor omului.

Transparență și explicabilitate: Algoritmii AI ar trebui să fie transparenți și explicabili pentru a permite controlul, atenua părtinirile și construi încrederea între părțile interesate, inclusiv publicul.

Echitate și nediscriminare: Ar trebui depuse eforturi pentru a atenua părtinirile în sistemele AI și pentru a asigura corectitudinea și nediscriminarea în procesele de luare a deciziilor, în special în ceea ce privește drepturile și libertățile individuale.

Impactul societal: Implementarea IA în securitatea națională ar trebui să ia în considerare impactul său societal mai larg, inclusiv implicațiile pentru ocuparea forței de muncă, drepturile omului și relațiile internaționale.

Cooperare internațională: Cooperarea și coordonarea internațională sunt esențiale pentru a aborda natura globală a provocărilor legate de IA la nivel național. securitate și să dezvolte standarde și norme comune.

Strategia pentru inteligența artificială a Departamentului de Apărare a SUA din 2018 postulează că „Statele Unite, împreună cu aliații și partenerii săi, trebuie să adopte IA pentru a-și menține poziția strategică, pentru a prevala pe câmpurile de luptă viitoare și pentru a proteja ordinea internațională liberă și deschisă”[27].

Concluzie

Integrarea IA în securitatea națională oferă beneficii semnificative, de la îmbunătățirea capacităților de apărare până la îmbunătățirea securității cibernetice și a analizei informațiilor.  Implementarea strategică a AI în securitatea națională deține promisiunea unor progrese semnificative în detectarea amenințărilor, analiză și capabilități de răspuns.

Cu toate acestea, prezintă, de asemenea, provocări și considerații etice care necesită o atenție atentă și măsuri proactive. Abordând probleme precum securitatea datelor, părtinirea, transparența și cooperarea internațională, factorii de decizie pot valorifica întregul potențial al inteligenței artificiale, respectând în același timp principiile de etică, responsabilitate și drepturile omului în practicile de securitate națională.

Prin promovarea cooperării internaționale, stabilirea unor orientări etice clare și menținerea supravegherii umane, este posibil să se valorifice potențialul IA în securitatea națională în mod responsabil și eficient.

Bibliografie

  • Altmann, Jürgen, și Frank Sauer. 2017. „Autonomous Weapon Systems and Strategic Stability: Survival: Vol 59, No 5”. 2017. https://www.tandfonline.com/doi/abs/10.1080/00396338.2017.1375263.
  • Babuta, Alexander, Marion Oswald, și Ardi Janjeva. 2023. „Artificial Intelligence and UK National Security: Policy Considerations”. 2 noiembrie 2023. https://rusi.orghttps://rusi.org.
  • Blanchard, Alexander, și Mariarosaria Taddeo. 2023. „The Ethics of Artificial Intelligence for Intelligence Analysis: A Review of the Key Challenges with Recommendations”. Digital Society 2 (1): 12. https://doi.org/10.1007/s44206-023-00036-4.
  • Congressional Research Service. 2020. „Artificial Intelligence and National Security (R45178)”. 2020. https://crsreports.congress.gov/product/details?prodcode=R45178.
  • CSET. 2020. „Artificial Intelligence and National Security”. https://bipartisanpolicy.org/download/?file=/wp-content/uploads/2020/07/BPC-Artificial-Intelligence-and-National-Security_Brief-Final-1.pdf.
  • Defense Innovation Board. 2019. „AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense”. https://media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/DIB_AI_PRINCIPLES_PRIMARY_DOCUMENT.PDF.
  • Dudley, Craig A. 2021. „Lessons from SABLE SPEAR: The Application of an Artificial Intelligence Methodology in the Business of Intelligence – CIA”. 2021. https://www.cia.gov/resources/csi/studies-in-intelligence/volume-65-no-1-march-2021/lessons-from-sable-spear-the-application-of-an-artificial-intelligence-methodology-in-the-business-of-intelligence/.
  • Freedberg, Sydney J. 2018. „Pentagon Rolls Out Major Cyber, AI Strategies This Summer”. Breaking Defense (blog). 17 iulie 2018. https://breakingdefense.sites.breakingmedia.com/2018/07/pentagon-rolls-out-major-cyber-ai-strategies-this-summer/.
  • GCHQ. 2021. „Pioneering a new national security: The ethics of artificial intelligence.” https://www.gchq.gov.uk/files/GCHQAIPaper.pdf.
  • Heaven, Will Douglas. 2021. „DeepMind Says Its New Language Model Can Beat Others 25 Times Its Size”. MIT Technology Review. 2021. https://www.technologyreview.com/2021/12/08/1041557/deepmind-language-model-beat-others-25-times-size-gpt-3-megatron/.
  • Knox, MacGregor, și Williamson Murray, ed. 2001. The Dynamics of Military Revolution, 1300–2050. Vol. The Future Behind Us. Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9780511817335.
  • Ministry of Defence. 2022. „Defence Artificial Intelligence Strategy”. GOV.UK. 2022. https://www.gov.uk/government/publications/defence-artificial-intelligence-strategy/defence-artificial-intelligence-strategy.
  • Mitchell, Kwasi, Joe Mariani, și Adam Routh. 2019. „The Future of Intelligence Analysis”. Deloitte Insights. 2019. https://www2.deloitte.com/us/en/insights/industry/public-sector/artificial-intelligence-impact-on-future-intelligence-analysis.html.
  • OpenAI. 2019. „Better Language Models and Their Implications”. 2019. https://openai.com/research/better-language-models.
  • ———. 2021. „GPT-3 Powers the next Generation of Apps”. 2021. https://openai.com/blog/gpt-3-apps.
  • PYMNTS. 2023. „US Intelligence Agencies Are Putting the AI in CIA”. 27 septembrie 2023. https://www.pymnts.com/artificial-intelligence-2/2023/us-intelligence-agencies-are-putting-the-ai-in-cia/.
  • Scharre, Paul, și Robert O. Work. 2018. „Getting to grips with military robotics”. The Economist, 2018. https://www.economist.com/special-report/2018/01/25/getting-to-grips-with-military-robotics.
  • Sfetcu, Nicolae. 2024. „Inteligența artificială în serviciile de informații, apărare și securitatea națională”. MultiMedia. 1 ianuarie 2024. https://www.telework.ro/ro/e-books/inteligenta-artificiala-in-serviciile-de-informatii-aparare-si-securitatea-nationala/.
  • Walch, Kathleen. 2020. „How AI Is Finding Patterns And Anomalies In Your Data”. Forbes. 2020. https://www.forbes.com/sites/cognitiveworld/2020/05/10/finding-patterns-and-anomalies-in-your-data/.
  • Work, Robert O., și Shawn Brimley. 2014. „20YY: Preparing for War in the Robotic Age”. 2014. https://www.cnas.org/publications/reports/20yy-preparing-for-war-in-the-robotic-age.

Note

[1] (Congressional Research Service 2020)

[2] (Scharre și Work 2018)

[3] (Work și Brimley 2014)

[4] (Altmann și Sauer 2017)

[5] (Knox și Murray 2001)

[6] (Congressional Research Service 2020)

[7] (Blanchard și Taddeo 2023)

[8] (Babuta, Oswald, și Janjeva 2023)

[9] (OpenAI 2021)

[10] (OpenAI 2019)

[11] (Heaven 2021)

[12] (GCHQ 2021)

[13] (Babuta, Oswald, și Janjeva 2023)

[14] (Walch 2020)

[15] (Mitchell, Mariani, și Routh 2019)

[16] (Mitchell, Mariani, și Routh 2019)

[17] (PYMNTS 2023)

[18] (Congressional Research Service 2020)

[19] (Freedberg 2018)

[20] (Defense Innovation Board 2019)

[21] (Congressional Research Service 2020)

[22] (Congressional Research Service 2020)

[23] (Ministry of Defence 2022)

[24] (Ministry of Defence 2022)

[25] (Dudley 2021)

[26] (Dudley 2021)

[27] (CSET 2020)

 

Articol în Acces Deschis (Open Access) distribuit în conformitate cu termenii licenței de atribuire Creative Commons CC BY SA 4.0 (https://creativecommons.org/licenses/by-sa/4.0/)

Follow Nicolae Sfetcu:
Asociat şi manager MultiMedia SRL și editura MultiMedia Publishing. Partener cu MultiMedia în mai multe proiecte de cercetare-dezvoltare la nivel naţional şi european Coordonator de proiect European Teleworking Development Romania (ETD) Membru al Clubului Rotary București Atheneum Cofondator şi fost preşedinte al Filialei Mehedinţi al Asociaţiei Române pentru Industrie Electronica şi Software Oltenia Iniţiator, cofondator şi preşedinte al Asociaţiei Române pentru Telelucru şi Teleactivităţi Membru al Internet Society Cofondator şi fost preşedinte al Filialei Mehedinţi a Asociaţiei Generale a Inginerilor din România Inginer fizician - Licenţiat în Științe, specialitatea Fizică nucleară. Master în Filosofie. Cercetător - Academia Română - Comitetul Român de Istoria și Filosofia Științei și Tehnicii (CRIFST), Divizia de Istoria Științei (DIS) ORCID: 0000-0002-0162-9973

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *