Intelligenza artificiale. Parla  Marco Castaldo Cofounder, CEO IdentifAI Labs: “L’applicazione IA in ambito militare ha il potenziale di apportare vantaggi significativi, ma solleva anche enormi interrogativi etici, legali e strategici”

MILANO. La cybersicurezza è sempre più un tema di estrema attualità.

Gli attacchi informatici che le aziende subiscono, in Italia e nel mondo, le indagini e le operazioni che compiono le Forze di Polizia, richiedono, ogni giorni, un’attenzione che porta le aziende del settore a trovare soluzioni per proteggere le infrastrutture critiche, le istituzioni politiche, economiche, di sicurezza di un Paese.

Report Difesa con Marco Castaldo Cofounder, CEO IdentifAI Labs (https://identifai.net)

Marco Castaldo Cofounder, CEO IdentifAI Labs

 

L’intelligenza artificiale è letta dall’opinione pubblica con “doppi occhiali”, tra chi vede in essa un rischiò e chi un’opportunità. Ma cosa è veramente?

Dal punto di vista dell’opinione pubblica, la percezione dell’IA con “doppi occhiali” è assolutamente comprensibile.

Siamo di fronte ad una rivoluzione tecnologica che avrà un impatto superiore alla rivoluzione industriale di un secolo e mezzo fa; un’opportunità straordinaria, capace di trasformare settori come la medicina, l’istruzione, l’industria e la sostenibilità, migliorando la qualità della vita e offrendo strumenti per affrontare sfide globali.

Ma ci sono i rischi, come la perdita di posti di lavoro, la concentrazione di potere in mano a poche aziende, la disinformazione o l’uso improprio in contesti militari o di sorveglianza.

Quanto questi rischi si tradurranno in realtà è davvero difficile dirlo oggi.

L’IA è uno strumento tecnologico: il suo impatto dipenderà da come viene sviluppata e utilizzata.

Non è né “buona” né “cattiva”. La sua essenza è quella di amplificare le capacità umane, rendendole molto più efficienti e/o scalabili. Questo significa che, mentre ha il potenziale di risolvere problemi complessi, porta con sé anche il potenziale di creare enormi problemi.

Quello che davvero conta è il contesto in cui viene applicata e il livello di consapevolezza collettiva nella sua gestione. Sta a noi, come società, definire i confini del suo utilizzo e sviluppare un approccio equilibrato che ne massimizzi i benefici minimizzandone i rischi.

L’Intelligenza Artificiale al servizio della Cybersecurity

La sua applicazione in ambito sia militare che civile che apporti può dare?

L’applicazione dell’Intelligenza artificiale (IA) in ambito militare ha il potenziale di apportare vantaggi significativi, ma solleva anche enormi interrogativi etici, legali e strategici.

In ambito militare esistono indubbi vantaggi, come ad esempio droni autonomi per missioni di ricognizione o attacco mirato, difese informatiche automatizzate contro attacchi hacker, elaborazione e analisi di grandi quantità di dati per identificare minacce in tempo reale, previsioni strategiche basate su simulazioni, riduzione delle perdite umane con robot e droni che possono eseguire missioni pericolose, riducendo il rischio per i soldati.

D’altra parte sorgono però nuovi rischi come le cosiddette “armi autonome letali” che sollevano grandi questioni etiche, come chi sia responsabile delle decisioni di vita o di morte.

L’IA può inoltre amplificare attacchi cyber devastanti su infrastrutture critiche e l’uso dell’IA per decisioni militari potrebbe accelerare conflitti, eliminando il tempo necessario per la diplomazia umana e portando ad una escalation incontrollata; e come non pensare al rischio che algoritmi mal progettati o non trasparenti possano prendere decisioni errate con conseguenze catastrofiche.

In ambito civile pensiamo ai vantaggi nella capacità di migliorare i servizi pubblici, la produttività e la qualità della vita. Alcuni esempi sono nell’ambito della sanità, dove diagnosi rapide e precise grazie all’elaborazione di immagini mediche possono fare una differenza enorme rispetto allo status quo; ma pensiamo anche ai modelli predittivi per anticipare epidemie o personalizzare trattamenti.

Nell’ambito dei trasporti possiamo immaginare veicoli autonomi per migliorare la sicurezza stradale e ridurre gli incidenti o l’ottimizzazione della logistica e dei trasporti pubblici.

E se parliamo di ambiente come non pensare al monitoraggio del cambiamento climatico, alla gestione delle risorse naturali e all’ottimizzazione dell’energia e riduzione degli sprechi.

E ancora, con riferimento alla sicurezza pubblica, pensiamo ai sistemi di analisi per il monitoraggio delle infrastrutture e la prevenzione dei disastri.

E per quanto riguarda i rischi?

Certamente la disoccupazione tecnologica: l’automazione può eliminare posti di lavoro, soprattutto in settori poco qualificati; la disuguaglianza, con accesso iniquo alle tecnologie avanzate, creando divari tra paesi o comunità; la privacy, con i rischi legati alla raccolta massiva di dati personali.

Fact checking e capacità di proteggersi dalle fake news, che cosa è possibile proporre agli utilizzatori per evitare problematiche non solo giuridiche?

Le tecnologie digitali hanno trasformato radicalmente il modo in cui creiamo, consumiamo e diffondiamo informazioni, con effetti ambivalenti sulla capacità di distinguere il vero dal falso.

Le nuove tecnologie di AI generative permettono di creare video e immagini estremamente realistici ma falsi, minando la fiducia nel contenuto visivo e software di manipolazione vocale e testuale complicano ulteriormente la verifica dell’autenticità delle informazioni.

Tutto questo può poi essere “esploso” attraverso bot e account falsi che diffondono rapidamente fake news su larga scala, creando la percezione che siano verità accettate.

E consideriamo che la velocità di diffusione spesso supera quella di correzione, generando danni permanenti. Il fact-checking dovrebbe essere responsabilità di tutti, autorità pubbliche, mondo dei Media, social networks ed di ogni singolo individuo che produce o condivide una notizia online. Ma la responsabilità non basta.

Occorrono tecnologie a supporto come la piattaforma IdentifAI, che con i suoi modelli di intelligenza artificiale “degenerativa” è in grado di riconoscere con un elevato grado di probabilità se un contenuto è prodotto artificialmente o da un essere umano.

Verità contro bugia nell’informazione internettiana del terzo Millennio. Quanto le tecnologie di oggi fanno spostare l’ago della bilancia verso l’una o verso l’altra?

La dicotomia tra verità e bugia nell’informazione online del terzo millennio è uno dei fenomeni più complessi e significativi della nostra epoca.

La democratizzazione delle informazioni attraverso internet permette a chiunque di accedere a una vasta gamma di fonti e punti di vista. Questo, teoricamente, dovrebbe facilitare la ricerca della verità e la verifica delle notizie.

In realtà gli algoritmi delle piattaforme social tendono a privilegiare contenuti polarizzanti e sensazionalistici, poiché generano più engagement, a discapito della qualità dell’informazione.

Questo meccanismo rafforza i bias preesistenti rendendo più difficile distinguere il vero dal falso.

Non dimentichiamo che la produzione di fake news è incentivata economicamente: contenuti sensazionalistici attirano più clic e visualizzazioni, generando profitti pubblicitari per le piattaforme che li veicolano.

Ad oggi, le tecnologie sembrano far pendere l’ago della bilancia verso la bugia, principalmente a causa della velocità e della scala con cui la disinformazione può essere diffusa.

Inoltre l’abbandono da parte di META di ogni attività di fact-checking rende sempre più evidente la necessità per il singolo individuo e per le organizzazioni di prendersi la responsabilità diretta di contrastare le “verità alternative”.

E’ dunque indispensabile che emergano sempre più strumenti di contrasto per arginare il problema, ad esempio l’adozione e l’uso di strumenti basati sull’intelligenza artificiale per smascherare disinformazione e deepfake come IdentifAI; ma è indispensabile anche promuovere la consapevolezza del tema nelle scuole e tra le comunità per insegnare a identificare fonti affidabili e riconoscere manipolazioni;

Solo un approccio collettivo che combini innovazione tecnologica, educazione e politiche responsabili potrà spostare l’ago della bilancia verso una società più informata e meno vulnerabile alla disinformazione.

Tutto questo può toccare il semplice cittadino come un Governo, un esponente politico, economico, militare, un Ente, un’azienda Cosa abbiamo oggi per rispondere alle minacce informatiche?

La risposta alle minacce informatiche passa attraverso l’uso di tecnologie di difesa sofisticate, ma non solo; oggi sappiamo che è fondamentale ragionare in termini di sicurezza già a partire dalla progettazione delle architetture informatiche – security by design – e altrettanto importante è sviluppare all’interno delle organizzazioni la cultura della sicurezza, implementando le policy corrette ed alzando la consapevolezza e la conoscenza di tutti.

Quali sono i principali Paesi che dobbiamo attenzionare per eventuali attacchi cyber?

 Non credo di dire nulla di nuovo ricordando che Russia, Iran e Corea del Nord sono Paesi dove sono presenti gruppi di cyber criminali particolarmente capaci ed attivi sul piano internazionale

Quanto la politica di una Paese nemico di un altro può incidere sull’opinione pubblica attraverso i cyber attacchi?

Un Paese nemico può influenzare profondamente l’opinione pubblica di un altro paese attraverso i cyber attacchi, sfruttando una combinazione di disinformazione, destabilizzazione e manipolazione psicologica. Questi attacchi possono incidere a vari livelli, amplificando divisioni interne, minando la fiducia nelle istituzioni e alterando percezioni pubbliche su temi cruciali.

Anche in questo caso la diffusione di fake news e di narrazioni manipolatorie attraverso social media e piattaforme digitali hanno un impatto significativo sull’opinione pubblica e possono alimentare conflitti interni, divisioni etniche, religiose, politiche. La diffusione di informazioni false su candidati o partiti ad esempio può manipolare le elezioni influenzando il voto. Fino ad arrivare al sostegno di ideologie radicali per destabilizzare la società.

Attacchi informatici possono essere utilizzati per colpire sistemi bancari, energetici o sanitari seminando paura e insicurezza.

La diffusione di notizie false su giornalisti o mezzi d’informazione può confondere il pubblico e distruggere la sua fiducia nelle fonti tradizionali, lasciandolo senza punti di riferimento.

I cyber attacchi sono diventati dunque un’arma strategica per influenzare l’opinione pubblica. Il loro impatto dipende ovviamente dalla fragilità interna del paese bersaglio (divisioni sociali, polarizzazione politica, vulnerabilità digitali) e dalla capacità del pubblico di distinguere informazioni vere da false.

©️ RIPRODUZIONE RISERVATA

Autore