Emersa per la prima volta nei forum online all'inizio degli anni 2010, la teoria dell'Internet morto suggeriva che l'interazione umana autentica su Internet aveva raggiunto il suo apice, mentre bot, algoritmi e sistemi automatizzati cominciavano a dominare l'attività online.
All'epoca era facile da respingere. Oggi è più difficile ignorarla. L'ascesa dei contenuti generati dall'intelligenza artificiale, delle reti di bot su larga scala e delle piattaforme guidate dagli algoritmi ha accelerato questa trasformazione. Quello che una volta era un Internet guidato dall'uomo è sempre più modellato da macchine che producono contenuti da far consumare ad altre macchine.
Per la sicurezza informatica, questo cambiamento introduce nuovi rischi. Quando le identità possono essere create su scala, i contenuti possono essere generati istantaneamente e i deepfake possono replicare voci e volti con grande precisione, i segnali tradizionali di fiducia iniziano a crollare.
La sfida non è più solo quella di individuare le minacce. Si tratta di determinare innanzitutto cosa è reale.
Cos'è la teoria dell'Internet morto?
In sostanza, la teoria suggerisce che le attività guidate dall'uomo vengono diluite da sistemi automatizzati. In termini pratici, ciò si traduce in un ambiente digitale in cui è più difficile stabilire l'autenticità e non si può più dare per scontata la fiducia.
Storicamente, anche l'attività dannosa comportava limitazioni umane. Gli aggressori dovevano investire tempo nella creazione di e-mail di phishing, nella costruzione di personaggi o nella ricognizione. C'erano vincoli di scala, coerenza e impegno. Oggi questi vincoli stanno scomparendo.
L'automazione consente agli attori legittimi e malintenzionati di operare in velocità e su scala. L'intelligenza artificiale può generare contenuti all'istante, i bot possono simulare il coinvolgimento e le identità sintetiche possono essere create e mantenute con il minimo sforzo. Questo crea un panorama in cui il volume delle attività aumenta, ma la percentuale di segnali significativi generati dall'uomo diminuisce.
Per i team di sicurezza, ciò introduce una sfida fondamentale. Il rilevamento non si limita più a identificare l'intento malevolo. Si tratta di convalidare l'autenticità di un'interazione, di un'identità o di un'informazione.
Come i contenuti generati dall'intelligenza artificiale stanno rimodellando il panorama delle minacce
L'intelligenza artificiale ha abbassato notevolmente la barriera alla produzione di contenuti digitali convincenti. Ciò che un tempo richiedeva abilità e impegno ora può essere ottenuto con un input minimo. Ciò ha avuto un impatto diretto sul panorama delle minacce.
Le campagne di phishing, ad esempio, si sono evolute rapidamente. Le e-mail generiche e mal scritte sono state sostituite da messaggi altamente mirati che riflettono il tono organizzativo, la terminologia del settore e persino gli stili di comunicazione individuali. Gli aggressori possono generare variazioni su scala, rendendo meno efficaci i metodi di rilevamento tradizionali.
Oltre al phishing, l'intelligenza artificiale viene utilizzata per creare interi ecosistemi di contenuti dannosi. I siti web fraudolenti possono essere popolati con articoli dall'aspetto credibile. Le recensioni false possono essere generate in grandi quantità. La documentazione tecnica, i rapporti sulle violazioni e gli avvisi possono essere inventati per ingannare sia gli utenti che i professionisti della sicurezza.
Questo cambiamento riguarda anche le operazioni di influenza. Le narrazioni generate dall'intelligenza artificiale possono essere adattate in tempo reale, adattate a un pubblico specifico e amplificate attraverso reti automatizzate. Il risultato è una forma di manipolazione più dinamica e più difficile da individuare.
Man mano che i contenuti sintetici diventano indistinguibili dal materiale legittimo, la soglia di riferimento per ciò che appare affidabile continua a spostarsi. Ciò aumenta la probabilità che i contenuti dannosi passino inosservati.
Media sintetici e deepfakes nelle frodi e nelle impersonificazioni
Uno degli sviluppi più preoccupanti è l'ascesa dei media sintetici. La tecnologia deepfake, la clonazione vocale e le immagini generate dall'intelligenza artificiale non sono più sperimentali. Vengono utilizzate attivamente in campagne di frode, impersonificazione e disinformazione.
Sono già stati documentati casi in cui gli aggressori hanno utilizzato la voce generata dall'intelligenza artificiale per impersonare alti dirigenti e autorizzare trasferimenti finanziari. In scenari più avanzati, sono stati utilizzati video deepfake durante le chiamate dal vivo per rafforzare l'inganno.
Questi attacchi sfruttano un aspetto fondamentale della fiducia umana. Le persone sono condizionate a credere a ciò che vedono e sentono. Quando un volto familiare appare sullo schermo o una voce riconoscibile impartisce istruzioni, l'istinto è quello di fidarsi.
Questo crea nuovi rischi per le organizzazioni:
L'impersonificazione di dirigenti può essere effettuata in tempo reale, aggirando i tradizionali controlli basati sulle e-mail.
La clonazione vocale può essere utilizzata per creare urgenza e pressione nelle richieste finanziarie.
I contenuti video manipolati possono influenzare le decisioni o danneggiare la reputazione.
Le campagne di disinformazione possono sfruttare immagini sintetiche per plasmare la percezione.
A differenza delle precedenti forme di ingegneria sociale, queste tecniche non sono limitate dalla capacità umana. Possono essere generate, perfezionate e distribuite su scala.
Perché i modelli di fiducia tradizionali stanno crollando
Molte pratiche di sicurezza esistenti si basano su segnali di fiducia impliciti. Tra questi, il riconoscimento del tono di voce del mittente, la fiducia negli indirizzi e-mail conosciuti o la conferma visiva durante la comunicazione. In un ambiente guidato dall'intelligenza artificiale, questi segnali non sono più affidabili.
L'intelligenza artificiale è in grado di riprodurre con grande precisione lo stile e il tono di scrittura. Può generare messaggi che corrispondono a modelli di comunicazione interna. Può produrre audio e video che imitano in modo convincente individui reali. Allo stesso tempo, tecniche come lo spoofing dei domini e la compromissione degli account rendono ancora più confusa la linea di demarcazione tra attività legittime e attività dannose.
Di conseguenza, le organizzazioni stanno assistendo a un crollo dei modelli di fiducia tradizionali. La familiarità non è più una base sufficiente per la fiducia. La verifica deve diventare esplicita, coerente e tecnicamente applicata.
Questo cambiamento richiede un cambio di mentalità. Invece di chiedersi se qualcosa "sembra giusto", le organizzazioni devono chiedersi se può essere verificato in modo indipendente.
Come gli aggressori sfruttano la generazione automatica di identità
Un altro importante sviluppo è l'ascesa delle identità sintetiche. Gli aggressori non si limitano più a utilizzare credenziali rubate o account compromessi. Possono creare identità completamente nuove che appaiono legittime fin dall'inizio.
Queste identità possono essere sviluppate nel tempo. Possono costruire una presenza sui social media, interagire con altri utenti e stabilire una credibilità. Essendo generate in modo programmatico, possono essere create in gran numero e gestite con il minimo sforzo.
Ciò consente una serie di scenari di attacco:
Le reti di bot possono amplificare le narrazioni o manipolare la percezione pubblica.
Gli account fraudolenti possono interagire con i sistemi di assistenza clienti o le piattaforme finanziarie.
Le campagne di social engineering a lungo termine possono essere costruite sulla fiducia e sulla familiarità.
La capacità di generare identità in scala elimina una barriera fondamentale che in precedenza limitava gli aggressori. Complica anche il rilevamento, poiché queste identità potrebbero non presentare i tipici segni di compromissione.
Controlli pratici per la convalida delle identità e delle comunicazioni
In questo ambiente in evoluzione, le organizzazioni devono abbandonare la fiducia implicita per passare a una convalida strutturata.
- Una forte garanzia di identità è essenziale. L'autenticazione a più fattori, il binding dei dispositivi e l'analisi comportamentale forniscono ulteriori livelli di verifica oltre alle semplici credenziali. Questi controlli aiutano a garantire che l'accesso sia concesso sulla base di più fattori indipendenti.
- La verifica fuori banda dovrebbe essere standard per le azioni ad alto rischio. Le transazioni finanziarie, le modifiche ai dettagli di pagamento o le richieste sensibili devono essere confermate attraverso un canale separato e fidato. In questo modo si riduce il rischio che una singola comunicazione compromessa porti a un attacco riuscito.
- I principi difiducia zero sono sempre più rilevanti. Piuttosto che presumere la fiducia in base alla posizione o alla storia, l'accesso deve essere verificato continuamente. Ogni richiesta deve essere valutata nel suo contesto, senza presupposti impliciti.
- Le firme digitali possono contribuire a stabilire l'autenticità. La verifica crittografica garantisce che le comunicazioni e i documenti non siano stati alterati e provengano da una fonte affidabile.
- Le organizzazioni dovrebbero anche investire in capacità di sensibilizzazione e rilevamento dei media sintetici. I dipendenti devono capire che vedere o sentire un individuo familiare non è più una prova sufficiente dell'identità.
Infine, i controlli sulle transazioni, come i flussi di lavoro di approvazione, le soglie e i ritardi, possono fornire un'ulteriore salvaguardia. Queste misure introducono attrito dove è più importante, riducendo la probabilità di frodi rapide e ad alto impatto.
Proteggere il processo decisionale in un ambiente dominato dall'intelligenza artificiale
Con l'aumento del volume di contenuti sintetici, l'integrità dei processi decisionali diventa un problema critico.
Le organizzazioni devono garantire che le decisioni non si basino su informazioni non verificate o manipolate. Ciò richiede un approccio disciplinato alla convalida degli input.
Le fonti di informazione devono essere valutate in termini di affidabilità. Ove possibile, i dati critici devono essere sottoposti a controlli incrociati su più canali indipendenti. In questo modo si riduce il rischio di agire sulla base di informazioni false o fuorvianti.
La supervisione umana rimane essenziale. Sebbene l'automazione possa supportare l'analisi, le decisioni ad alto impatto dovrebbero essere affidate al giudizio di un esperto. Questo aiuta a identificare le incongruenze che i sistemi automatici potrebbero trascurare.
Anche la segmentazione dei dati può svolgere un ruolo importante. Separare i dati interni affidabili dagli input esterni riduce l'esposizione a informazioni contaminate. Ciò è particolarmente importante per le organizzazioni che utilizzano modelli di intelligenza artificiale addestrati su set di dati misti.
È necessario stabilire percorsi di escalation chiari per gli scenari insoliti o ad alto rischio. I dipendenti devono sapere quando e come verificare le richieste che non rientrano nei normali schemi.
In definitiva, l'obiettivo è garantire che i processi decisionali rimangano resistenti, anche quando l'ambiente informativo diventa più complesso.
Le organizzazioni che riconoscono questo cambiamento e adattano le loro strategie di sicurezza di conseguenza saranno meglio posizionate per gestire il rischio. Quelle che continuano a basarsi su presupposti obsoleti di autenticità e fiducia potrebbero trovarsi sempre più esposte.
Internet non è ancora morto. Si sta evolvendo. La sicurezza informatica deve evolversi con essa.
Se siete preoccupati per una qualsiasi delle minacce descritte in questo blog o avete bisogno di aiuto per determinare le misure da adottare per proteggervi dalle minacce più concrete che incombono sulla vostra organizzazione, contattate il vostro account manager o, in alternativa,mettetevi in contattoper scoprire come potete proteggere la vostra organizzazione.


%20(Italian).jpg?width=1920&height=1080&name=(Italian)%20(Italian).jpg)

