News Società

Che cos’è la “guerra cognitiva”?

guerra-cognitiva-pexels-lucasfonseca-2239655

La guerra cognitiva rappresenta oggi una delle forme più sofisticate di conflitto non convenzionale. Si tratta di un’estensione evoluta della tradizionale guerra dell’informazione: non si limita alla propaganda o alla disinformazione, ma mira a intervenire direttamente sui processi mentali delle persone, alterando la loro percezione della realtà, le opinioni e persino i meccanismi decisionali. È un tipo di conflitto che può agire sia sul singolo individuo sia su gruppi, comunità e intere opinioni pubbliche, con l’obiettivo di influenzare comportamenti, scelte politiche e livello di fiducia nelle istituzioni. Alcuni analisti arrivano a definire il “dominio cognitivo” come un nuovo, sesto dominio della guerra, da affiancare a terra, mare, aria, spazio e cyberspazio.

Gli strumenti di questa forma di conflitto sono molteplici e in continua evoluzione. La disinformazione, la propaganda e la diffusione di fake news costituiscono solo il livello più superficiale. Oggi la guerra cognitiva si alimenta anche attraverso contenuti generati da intelligenza artificiale, come deepfake, video manipolati e testi creati per orientare in modo mirato l’opinione pubblica. A questo si aggiunge l’uso dei big data e della profilazione comportamentale: la capacità di raccogliere e analizzare grandi quantità di dati consente di individuare vulnerabilità cognitive specifiche di una popolazione o di un gruppo sociale, modulando di conseguenza i messaggi da diffondere. Gli algoritmi permettono inoltre di “insegnare” ai sistemi di intelligenza artificiale a produrre contenuti progressivamente più persuasivi, basandosi sulle reazioni online degli utenti. A completare questo quadro si collocano le operazioni psicologiche integrate con attività militari nella cosiddetta “grey zone”, l’insieme di azioni ostili condotte sotto la soglia della guerra dichiarata, capaci di destabilizzare un avversario senza ricorrere a un conflitto aperto.

La Cina e la Russia sono oggi considerati due tra gli attori più attivi nel campo della guerra cognitiva, ma con una differenza sostanziale nella scala degli investimenti: Pechino è il Paese che ha investito di più, sviluppando un apparato tecnologico, accademico e operativo molto più ampio e strutturato rispetto a quello russo. La Cina ha integrato la dimensione cognitiva nelle proprie strategie militari ufficiali, finanzia centri di ricerca dedicati, impiega supercomputer e IA avanzate e sostiene programmi su larga scala per la raccolta dei dati e la produzione di contenuti manipolativi ad alta precisione. La Russia, pur essendo estremamente attiva e abile nelle operazioni psicologiche e nella disinformazione — spesso più aggressive e immediate — dispone di risorse tecnologiche e capacità di scalare le campagne inferiori rispetto a quelle cinesi.

Mentre queste due potenze affinano le proprie capacità cognitive, l’Europa appare invece in forte ritardo: la frammentazione istituzionale, la mancanza di una dottrina unitaria e la limitata capacità di investimento tecnologico rendono difficile una risposta coordinata. Nel continente europeo la consapevolezza del problema è cresciuta solo di recente, e gli strumenti sviluppati finora sono più orientati alla difesa e al contrasto della disinformazione che alla costruzione di reali capacità cognitive comparabili a quelle di Cina e Russia.

Un ruolo cruciale è svolto dalle tecnologie avanzate. L’intelligenza artificiale generativa permette la produzione su larga scala di contenuti falsi ma credibili e altamente personalizzati, con un potenziale persuasivo superiore rispetto alla propaganda tradizionale. I supercomputer consentono di progettare strategie cognitive sofisticate, capaci di identificare obiettivi, messaggi e tempistiche ottimali. I sistemi basati sul machine learning osservano e analizzano le interazioni degli utenti, migliorando progressivamente la qualità e l’efficacia dei contenuti manipolativi. In questo modo, la guerra cognitiva diventa un processo adattivo, in continua evoluzione.

A rendere tutto ciò particolarmente preoccupante sono diversi fattori. Le operazioni cognitive sono difficili da tracciare perché non producono effetti visibili immediati: non ci sono esplosioni né attacchi informatici devastanti, ma un lento lavoro di erosione delle certezze e delle percezioni. Una volta intaccata la fiducia pubblica nelle istituzioni, il danno è profondo e duraturo, spesso difficile da recuperare. La scalabilità offerta dall’IA e dal big data consente inoltre di condurre campagne su vasta scala e con una precisione finora impensabile, adattandole a gruppi specifici di popolazione. La guerra cognitiva si inserisce così in una strategia geopolitica più ampia di Pechino, volta ad accrescere la propria influenza globale non solo attraverso strumenti economici o militari, ma anche mediante il controllo dei processi mentali collettivi. Le democrazie liberali risultano particolarmente vulnerabili a queste dinamiche: la loro apertura, il pluralismo e la libertà di informazione, se da un lato rappresentano punti di forza, dall’altro offrono terreno fertile per campagne che sfruttano divisioni interne e incertezze sociali.

In questo scenario, la guerra cognitiva si configura come una delle sfide più complesse del XXI secolo, un territorio in cui si intrecciano tecnologia, psicologia, geopolitica e informazione, e che richiede nuove forme di consapevolezza e difesa da parte delle società democratiche.

Esempi di guerra cognitiva russa

Negli ultimi 12 mesi la Russia ha intensificato le sue operazioni di disinformazione e manipolazione cognitiva in molti paesi, soprattutto in Europa. Secondo il CERT-EU, ad esempio, Mosca ha sfruttato il voto di sfiducia al presidente della Commissione Europea Ursula von der Leyen per polarizzare l’Unione: sono stati rilevati oltre 20.000 post coordinati, diffusi da reti pro-Cremlino per dipingere la mozione come una rivolta contro la corruzione. cert.europa.eu

Un’altra campagna significativa è quella legata al gruppo “Storm-1516”: questa rete, connessa alla disinformazione russa, ha impersonato giornalisti e creato siti falsi per diffondere narrazioni pro-Kremlin in paesi come Moldova, Armenia, Francia e Germania. cert.europa.eu In particolare, in Germania l’interno ha avvertito che durante la campagna elettorale federale del 2025 sono circolati video falsi realizzati da questa rete, e sono stati individuati oltre 700 account social presumibilmente collegati, che promuovevano narrazioni pro-Russia e attaccavano figure politiche tedesche. Reuters

Allo stesso tempo, l’intelligence ucraina ha espresso forte preoccupazione per la prevista ondata di disinformazione legata alle esercitazioni militari congiunte Russia-Bielorussia chiamate Zapad-2025, avvertendo che una grande parte delle false narrazioni sarà diffusa proprio da Mosca per creare tensione nei paesi europei. DISA

Nel campo dell’IA e della manipolazione cognitiva, il report di NewsGuard ha mostrato come la propaganda russa si sia evoluta. Nell’arco di tre anni di conflitto sono state smentite 302 affermazioni false da siti legati alla Russia, molte delle quali generata con tecnologie di intelligenza artificiale. NewsGuard+1 Gli analisti hanno rilevato un aumento nell’uso di deepfake: un esempio è un video con Zelensky generato artificialmente, realizzato in modo sempre più convincente rispetto a versioni precedenti. idmo.it

Tra le campagne di disinformazione più strutturate c’è la già nota Doppelgänger, operazione attribuita alla Social Design Agency russa. Questa rete usa domini che imitano media legittimi per veicolare propaganda, ed è parte di uno sforzo più ampio di manipolazione europea. global-influence-ops.com+2European Security+2 Un rapporto di EU DisinfoLab segnala inoltre altre operazioni russe come “Matryoshka” (in cui vengono impersonati media locali) e “Overload”, che usano anche profili IA e personalità fittizie su piattaforme come TikTok e X. EU DisinfoLab

Un caso particolarmente aggressivo ha riguardato la Gran Bretagna: secondo il CERT-EU, è stata utilizzata una voce clonata via intelligenza artificiale (riproducendo la voce di un operatore di emergenza britannico) in una campagna disinformativa legata alla Russia, volta a diffondere paura e destabilizzare l’opinione pubblica. cert.europa.eu

Anche la Russia ha fatto un passo misterioso nel mondo del “fact-checking”: a novembre 2024 è stata presentata la Global Fact-Checking Network (GFCN), che si presenta come un’iniziativa per contrastare la disinformazione, ma che è criticata perché controllata dallo Stato russo e usata per promuovere narrazioni pro-Mosca spacciandole per “verificazioni”.

Infine, analisi accademiche recenti studiano il linguaggio usato nelle operazioni di influenza russe su Twitter: uno studio su oltre un milione di tweet ha evidenziato come le campagne sponsorizzate da Mosca tendano a sfruttare sentimenti negativi, emozioni tossiche e discorsi d’odio per polarizzare gli utenti. arXiv


Perché queste operazioni sono considerate “cognitive”

  • Non sono solo “fake news”: l’obiettivo è influenzare il pensiero delle persone su scala strategica, non solo diffondere bugie.

  • Sono coordinate, persistenti, e mirate su gruppi specifici (etnici, linguistici, geografici).

  • Non richiedono un conflitto militare diretto: se riesci a influenzare opinioni e creare disordine interno, ottieni un potere enorme con costi relativamente bassi.

  • Possono essere integrate con altre forme di potere (diplomatico, economico, militare).

 

 

Comments

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *