Sentire parlare di “fake news” o semplicemente di “fake” è una consuetudine a cui tutti stiamo inevitabilmente facendo l’abitudine.
“Fake” o fake news” continuano ad essere termini che non sono sufficienti per comprendere il fenomeno che stiamo vivendo, piuttosto si dovrebbe parlare in maniera più appropriata di manipolazione o disinformazione, concetti non nuovi ma che si arricchiscono di nuove implicazioni.

Posto che la maggior parte della popolazione ormai predilige apprendere qualsiasi tipo di informazione dai “social” (siano essi fatti di cronaca o dati più tecnici, finanche analisi e valutazione economico-politiche) è possibile affermare che tra i principali rischi vi sia quello che possano essere ritenute valide informazioni palesemente false; il fenomeno è incrementato dal cd “backfire effect” (quando si contesta un’informazione falsa già consolidata, si finisce col confermarla ulteriormente poiché tendenzialmente si è restii a cambiare la propria opinione).

Le “fake news” coinvolgono probabilmente tutti i settori culturali della società contemporanea ma tendono a concentrarsi più sui contenuti scientifici. La facilità che trova la disinformazione nel propagarsi in questo settore è principalmente basata sull’ignoranza, da parte di taluni utenti, dei concetti di base.

La specificità del linguaggio scientifico spesso assicura a coloro che creano disinformazione un immediato e notevole successo incidendo negativamente sul mondo accademico che perde di credibilità. Peraltro quando subentrano falsità inerenti la salute, il danno provocato diventa irreparabile.

Molti sono concordi nel definire centrale il ruolo delle “tech companies” le società tecnologiche che, lungi dal funzionare come semplici “piattaforme” svolgono un ruolo più aderente alle prerogative aziendali.
Infatti, non si limitano a caricare contenuti su una piattaforma, ma controllano accuratamente ciò che noi vediamo, in quanto è proprio questo il loro modello di business, con l’obiettivo finale di accrescere il loro pubblico di utenti, cambiando il flusso delle informazioni a dispetto della loro pretesa neutralità. Per attuare tali finalità fanno largo uso di sofisticati algoritmi, analisi, tecniche di data matching, e profiling grazie ai quali viene processata una grande mole di informazioni raccolte, concesse a terzi senza il consenso degli interessati, impiegati nella promozione pubblicitaria e nel micro targeting attraverso i social media.

Notevole anche l’uso di bot, programmi che accedono alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti umani. Creati appositamente per scopi generalmente commerciali/politici, come i post automatici che aumentano i numeri dei followers che sostengono campagne politiche; oppure sono costruiti appositamente per diffondere disinformazione.
Tra i Bot vi sono anche programmi di computer indirizzati da algoritmi per realizzare compiti precisi come attività di data scraping/Web scraping che procedono all’estrazione di dati e informazioni presenti in una determinata pagina per usarle in altri contesti.

Nella piazza virtuale le informazioni false o scorrette, sia di natura commerciale, sia di natura politica, sono occultate, inviate a un micro target di persone sulla base di dati raccolti da potenti società di web marketing, senza che gli interessati ne siano a conoscenza.
Sempre più spesso il “dibattito pubblico” (vertente su tematiche di grande complessità e di difficile soluzione, che riguardano il futuro di tutti) viene stravolto e trasformato da campagne di marketing del consenso, fatte di slogan che riempiono lo spazio pubblico: può apparire paradossale ma oggi, un tweet, non importa quanto tendenzioso o scorretto, è in grado di condizionare le informazioni della giornata spopolando anche sugli tutti i media.
Sostanzialmente le tech companies hanno uno stimolo economico a dare la priorità ai contenuti sensazionali, perché più suscettibili di attirare l’attenzione e di favorire la polarizzazione e la radicalizzazione dei dibattiti.
La disinformazione che circola sulle piattaforme è frutto di un progetto organizzato e condotto da attori che hanno compreso bene alcuni principi basilari dell’economia digitale attraverso i quali ottenere ingenti introiti pubblicitari; si tratta di metodi che sfruttando la stessa architettura del web, fanno circolare le informazioni seguendo una “efficacia del reddito” che prescinde dall’efficacia delle informazioni stesse.

Nel mese di ottobre 2018 le principali piattaforme digitali hanno sottoscritto un “codice di condotta” per combattere la disinformazione online. Si tratta di una tappa importante nella lotta ad una problematica potenzialmente in grado di minacciare la fiducia dei cittadini verso le istituzioni, come ribadito in ambito UE, anche perché è la prima volta che l’industria si mette d’accordo su un insieme di norme di auto-regolazione per lottare contro la disinformazione in tutto il mondo, su base volontaria. L’obiettivo dell’Unione Europea, nell’immediato è quello di evitare quanto più possibile l’influenza delle fake news sulle prossime elezioni europee della primavera del 2019 ma il suo obiettivo principale è quello di gestire un pacchetto di norme di autoregolamentazione su base volontaria, idonee a contrastare la disinformazione del web.

Le società interessate si sono impegnate, in questa fase, ad agire in cinque aree di interesse principale:

  1. interrompere le entrate pubblicitarie di determinati account e siti Web che diffondono disinformazione;
  2. aumentare la trasparenza della pubblicità politica;
  3. affrontare la questione degli account falsi e dei bot online;
  4. facilitare l’accesso a diverse fonti d’informazione, migliorando la visibilità dei contenuti autorevoli, e rendere più facile la segnalazione di notizie false;
  5. consentire alla comunità di ricerca di accedere ai dati delle piattaforme per monitorare la disinformazione online attraverso modalità conformi alle norme sulla privacy.

Aderendo a tale progetto, ogni impresa del web si è sostanzialmente data delle regole comprendenti l’insieme delle azioni da compiersi per combattere la disinformazione in tutti gli Stati membri dell’Ue, tra cui la diffusione di messaggi pubblicitari di natura politica più trasparenti, programmi di formazione per i gruppi politici e le autorità elettorali, una maggiore cooperazione con i fact-checkers.

Nel mese di gennaio 2019, la Commissione europea ha pubblicato una relazione illustrativa contenente i progressi fatti dalle società firmatarie evidenziando quanto c’è da fare ancora nel settore, rimarcando gli ambiti considerati di maggiore urgenza.
A titolo di esempio fino ad oggi le società in esame sono intervenute incisivamente in alcuni ambiti, quali l’eliminazione dei profili falsi e la demonetizzazione dei vettori di disinformazione. Molto altro resta da fare; i risultati positivi riscontrati si riferiscono ad un campione di pochi Paesi per cui è auspicabile che vi sia un maggiore ricorso a queste best practices il cui vantaggio andrebbe a beneficio della collettività.

IL RUOLO DELL’INTELLIGENCE

Lo sviluppo delle nuove tecnologie ha trasformato l’informazione in “comunicazione”, caratterizzata da un elemento onnipresente nella nostra era digitale: il feedback.
Parallelamente si è sviluppata la disinformazione, individuabile come un fenomeno complesso e in trasformazione, che può essere usato come una nuova arma, per finalità di tipo politico, economico, militare; ad uso di attori statuali e non, in maniera diretta o occulta.
Oggigiorno sono davvero tante e raffinatissime le tecniche di disinformazione tanto da rappresentare una minaccia per la sicurezza e la stabilità di un paese.

E quando si mettono in discussione l’integrità e la stabilità di un Paese si fa ricorso ai servizi di intelligence che nel loro processo di adeguamento alle nuove minacce e ad una società in velocissima trasformazione, giocano un ruolo fondamentale nel contrasto a tali forme di minaccia. Gli stessi servizi di intelligence peraltro sono stati interessati ad una trasformazione che li ha portati ad assumere una connotazione in grado di affrontare le nuove sfide alla sicurezza.

Concettualmente, per “intelligence” si intende il prodotto risultante dalla raccolta, elaborazione, integrazione, valutazione, analisi e l’interpretazione dei dati e delle informazioni disponibili sulle nazioni straniere, sugli elementi e sulle forze ostili o potenzialmente ostili, nonché sulle aree di operazioni attuali o potenziali.
Nello stesso ambito rientrano le attività derivate da tali processi e le organizzazioni impegnate a svilupparle; il conseguente processo di acquisizione e valutazione, permette al decisore di avere una maggiore cognizione della realtà che sta affrontando, offrendo una gamma diversificata di soluzioni per fronteggiare minacce o predisporre nuove strategie.

Istintivamente ci si potrebbe chiedere se in una società come quella attuale abbia ancora senso parlare di intelligence posto che le minacce di tipo tradizionale sono venute meno.
Ed è proprio perché occorre confrontarsi con nuove minacce ibride o asimmetriche che diventa importante il ruolo dell’intelligence: non si può comprendere appieno il suo ruolo senza analizzare alcuni aspetti.

L’Intelligence è strettamente connessa alle relazioni internazionali, ai rapporti di forza ma anche al mercato globale; questo concetto è ancor più valido in tempi come quelli attuali ove esistono alcune aree del mondo che non presentano forme di guerra almeno di tipo tradizionale, ma sempre più spesso sono sottoposte a fenomeni di vulnerabilità originate da conflitti economici, forme avanzate di terrorismo di varia matrice ed attacchi condotti con metodologie nuove che, al pari di guerre di tipo tradizionali, necessitano di forme di intelligence ad esse dedicate.

Le tradizionali “minacce alla sicurezza” si sono evolute cedendo il passo a più complesse minacce cibernetiche operate da attori che, fondamentalmente, possono essere distinti in due macro gruppi:

  1. attori statuali: organicamente strutturati, costituiscono il potenziale più pericoloso stante la disponibilità di ingenti risorse economiche e di risorse umane impiegabili; le minacce derivanti possono tradursi in guerra telematica (cyber warfare) spionaggio telematico (cyber espionage)
  2. attori non statuali, gruppo all’interno del quale possono essere inclusi: gruppi terroristici (cyber terrorism) organizzazioni criminali (cyber crime) altri (galassie riconducibili ad individui spinti da impulsi religiosi, politici, ideologici).

Tra gli addetti ai lavori vi è la consapevolezza che nel prossimo futuro verrà fatto un uso sempre maggiore di azioni “terroristiche” attraverso metodologie legate all’intelligenza artificiale, proprio finalizzate ad operare una destabilizzazione a livello psicologico nella prospettiva di alterare il consueto processo delle relazioni internazionali e, conseguentemente anche la percezione di sicurezza.

Ciò potrebbe avvenire attraverso l’uso di “deepfake” processi che sfruttano i principi dell’intelligenza artificiale per modificare/sovrapporre immagini e video partendo dagli originali e già esistenti in rete per elaborarne altri ove i soggetti compiono azioni, parlano e si muovono in contesti assolutamente non reali, grazie a tecniche di machine learning quali “generative adversarial network”.

Ma si arriva anche ai cd “fake people”, persone che non esistono nella realtà ma che diventano protagonisti di video virtuali particolarmente accattivanti e volutamente provocatori di forti sentimenti (rabbia, sfiducia, compassione, paura, disagio) a seconda delle finalità che si perseguono.

Sempre attraverso processi legati all’intelligenza artificiale potrebbero essere portati attacchi virtuali (ma ovviamente anche reali) ad infrastrutture critiche, con inevitabili conseguenze per la collettività.

Lo sviluppo di una efficace cyber intelligence è una realtà incontrovertibile; occorre solo stabilire quali strategie adottare per rimodulare questi ambiti in aderenza ad una realtà mutevole.

Analisi di fonte aperte, elaborazione dei big data, sviluppo di tecniche di intelligenza artificiale, rimodulazione della humint, possono (o meglio devono) essere queste le direttrici attraverso le quali è possibile combattere una Information warfare sempre più penetrante e difendere, conseguentemente, gli interessi della collettività.

Concetti quali “notizia”, “informazione”, “disinformazione” entrano e si intersecano all’interno del sistema “media” e del sistema “intelligence” più di quanto si possa immaginare e per evitare che le tecnologie così pervasive possano in qualche modo far “esplodere” il sistema di comunicazione/informazioni con pesanti ripercussioni sulla stessa società, è indispensabile che l’intelligence assuma quel ruolo di centralità a garanzia di sicurezza.
Ovviamente non si può non tenere conto del fatto che in questo ingranaggio trova posto anche la figura del decisore politico che usufruendo dei prodotti di entrambi i sistemi, determina le scelte future di un paese.

Ci troviamo di fronte ad un sistema particolarmente complesso ove risulta pressoché impossibile stabilire quale sia la fonte di una notizia o verificarne la veridicità, in un processo di ricerca che non appartiene certamente alla maggioranza degli utenti che ormai accettano qualsiasi notizia venga propinata da giornali, tv o social che hanno invece tutto l’interesse a selezionare/modificare/accentuare le notizie ritenute di interesse (per scelta editoriale, faziosità interessi spesso non coincidenti affatto con quelli relativi all’informazione).
Può apparire paradossale ma si è passati da epoche passate in cui la censura (quale sistema adottato dal potere) bloccava il flusso di informazioni, ai giorni nostri in cui nuovi sistemi di potere elaborano e costruiscono una mole interminabile di informazioni irrilevanti confondendo e manipolando il fruitore di queste informazioni, cioè l’utente medio, che è incapace di opporre una costruttiva resistenza a tali fenomeni.

Occorre investire su una moderna ed efficace cyber intelligence all’interno della quale non è più rimandabile lo sviluppo di capacità di cyber counter intelligence che oltrepassi il concetto di funzione difensiva, proiettandosi in un ruolo più proattivo e quindi finalizzato a poter operare nella dimensione cyber anche con attacchi, simulazioni ed operazioni complesse, finalizzate ad ostacolare gli avversari che di volta in volta appaiono sullo scenario.

Parallelamente occorrerà investire su una formazione di tutti gli utenti ad una maggiore sensibilità della sicurezza informatica affinché i molteplici e complessi rischi che insistono nella galassia delle nuove tecnologie possano essere rilevati, esaminati ed affrontati.

Pietro Lucania

Dottore in Scienze Politiche e Scienze Economiche. Master in psicologia giuridica e criminologia. Aree di studio: geopolitica; geoeconomia; new capabilities in warfare; cyberstrategy
Avatar

Attachments