Man mano che le tecnologie di intelligenza artificiale diventano più sofisticate, stanno introducendo anche sfide complesse per proteggersi dagli attacchi di social engineering. Questo blog esplora i problemi che l'IA pone alla sicurezza informatica e, in particolare, come stia cambiando il modo in cui i criminali perpetrano attacchi di social engineering. 

ctem

Amico o nemico? 

Le capacità dell'IA nel potenziare gli sforzi per la sicurezza informatica non possono essere sottovalutate. Dall'automazione del rilevamento delle minacce all'analisi di vasti dataset per individuare attività sospette, gli strumenti IA si stanno rivelando alleati indispensabili. Tuttavia, stanno anche potenziando gli avversari, dotandoli di strumenti per creare campagne di social engineering più convincenti e mirate. 

L'ascesa dei deepfake 

La tecnologia deepfake, alimentata dall'IA, esemplifica questa doppia natura. I deepfake possono creare falsi audio e video altamente convincenti, rendendo possibile l'imitazione di persone con grande precisione. Questa tecnologia viene utilizzata in truffe, campagne di disinformazione e per aggirare le misure di sicurezza biometriche, ponendo minacce significative sia per gli individui che per le organizzazioni. 

Caso reale 

Nel febbraio 2024, durante il primo furto di questo tipo, un dipendente di una multinazionale è stato ingannato a versare 25 milioni di dollari ai truffatori. Gli aggressori hanno utilizzato la tecnologia deepfake per fingersi il direttore finanziario della società durante una videochiamata, inducendo il dipendente a partecipare a una videochiamata con quelli che pensava fossero altri membri del personale, ma che in realtà erano tutti ricostruzioni deepfake. 

Il dipendente era diventato sospettoso dopo aver ricevuto un messaggio presumibilmente dal direttore finanziario britannico della società. Inizialmente, pensava che fosse una mail di phishing, poiché parlava della necessità di una transazione segreta. Tuttavia, ha messo da parte i dubbi dopo la videochiamata, poiché le altre persone presenti sembravano e suonavano proprio come colleghi che riconosceva. 

Altrove, i deepfake sono stati usati per diffondere disinformazione sui social media. La guerra tra Russia e Ucraina ha visto entrambe le parti utilizzarli per guadagni propagandistici e per seminare dissenso. 

Gli attacchi di phishing alimentati dall'IA 

Gli attacchi di phishing, tradizionalmente basati sulla creatività e la ricerca umana, sono ora potenziati dall'IA. Strumenti generativi come ChatGPT possono creare messaggi personalizzati e convincenti che imitano comunicazioni legittime da entità affidabili. Questi tentativi di phishing alimentati dall'IA aumentano significativamente la probabilità di ingannare i destinatari, aggirando l'efficacia della formazione tradizionale sulla consapevolezza della sicurezza. 

Phishing con deepfake 

Il phishing con deepfake utilizza la tattica fondamentale del social engineering per ingannare gli utenti, sfruttando la loro fiducia per eludere le difese di sicurezza convenzionali. Gli attaccanti sfruttano i deepfake in vari schemi di phishing, come: 

  • Email o messaggi: Il pericolo degli attacchi di compromissione dell'email aziendale (BEC), che costano miliardi alle aziende ogni anno, aumenta con i deepfake. Gli attaccanti possono creare identità più credibili, ad esempio creando profili falsi di dirigenti su LinkedIn per adescare i dipendenti. 
  • Videochiamate: Utilizzando la tecnologia deepfake, i truffatori possono impersonare altri in videoconferenze, convincendo le vittime a divulgare informazioni sensibili o a eseguire transazioni finanziarie non autorizzate. Una truffa degna di nota ha coinvolto un truffatore cinese che ha estorto $622.000 utilizzando la tecnologia di scambio facciale. 
  • Messaggi vocali: Con la tecnologia in grado di clonare una voce da un campione di soli tre secondi, gli attaccanti possono creare messaggi vocali o interagire in tempo reale, rendendo difficile distinguere tra vero e falso. 

Perché il phishing con deepfake è allarmante? 

  • Crescita rapida: Il phishing con deepfake ha visto un aumento del 3.000% nel 2023, alimentato dai progressi e dall'accessibilità dell'IA generativa. 
  • Attacchi altamente personalizzati: I deepfake consentono agli aggressori di personalizzare i loro schemi, sfruttando le vulnerabilità individuali e organizzative. 
  • Difficoltà di rilevamento: La capacità dell'IA di imitare stili di scrittura, clonare voci e generare volti realistici rende questi attacchi difficili da individuare. 

Le sfide 

La crescente sofisticazione degli attacchi di social engineering alimentati dall'IA rende sempre più difficile la loro individuazione. Le misure di sicurezza tradizionali e la formazione sono progettate per riconoscere schemi e incoerenze tipiche delle truffe create dall'uomo. Tuttavia, la capacità dell'IA di apprendere e adattarsi significa che può continuamente affinare il suo approccio, riducendo le anomalie rilevabili e imitando più da vicino il comportamento umano. 

Algoritmi di IA in evoluzione 

Gli algoritmi di IA, in particolare quelli basati sul machine learning, si evolvono interagendo con i dati. Questo processo di apprendimento continuo significa che gli attacchi alimentati dall'IA possono diventare più raffinati e meno rilevabili nel tempo. I sistemi di sicurezza che si affidano a metodi di rilevamento statici diventano rapidamente obsoleti, richiedendo aggiornamenti e adattamenti costanti per tenere il passo con l'evoluzione dell'IA. 

Il fattore umano 

Al centro degli attacchi di social engineering c'è lo sfruttamento della psicologia umana. L'IA esaspera questa vulnerabilità consentendo agli attaccanti di analizzare e comprendere il comportamento umano su larga scala. Questa profonda comprensione consente di creare attacchi altamente mirati che sfruttano specifiche vulnerabilità, come il bias di autorità, l'urgenza o la paura, rendendo meno efficace la formazione tradizionale sulla sicurezza informatica. 

Sfide nella formazione e nella consapevolezza 

Aumentare la consapevolezza e formare le persone a riconoscere e resistere agli attacchi di social engineering alimentati dall'IA è più impegnativo che mai. La natura realistica dei deepfake e la personalizzazione delle email di phishing possono eludere il controllo scettico insegnato ai dipendenti e agli individui. Ciò richiede un nuovo approccio all'educazione alla sicurezza informatica che tenga conto della sofisticazione delle minacce alimentate dall'IA. 

Implicazioni etiche e normative 

L'uso dell'IA negli attacchi di social engineering solleva anche complesse questioni etiche e normative. La capacità dell'IA di impersonare individui e creare contenuti falsi convincenti mette in discussione i quadri giuridici esistenti su consenso, privacy e libertà di espressione. Inoltre, solleva la questione di cosa dovrebbe accadere se un dipendente viene coinvolto in un deepfake o cade vittima di un tale attacco. 

CTA-Incident-Response

Proteggere il futuro 

Difendersi dagli attacchi di social engineering alimentati dall'IA richiede un approccio multifaccettato che combini soluzioni tecnologiche con intuizioni umane. Implementare strumenti avanzati di IA e machine learning per rilevare e rispondere alle minacce in tempo reale è fondamentale. Tuttavia, altrettanto importante è coltivare una cultura di consapevolezza sulla sicurezza informatica che consenta agli individui di mettere in discussione e verificare, anche quando di fronte a falsi altamente convincenti. 

Comprendendo queste sfide e adottando un approccio proattivo e informato sull'IA alla sicurezza informatica, le organizzazioni possono navigare nel labirinto delle minacce digitali. Se sei preoccupato per le minacce informatiche discusse in questo blog, contatta gli esperti di Integrity360. 

 

Contact Us