Insights | Integrity360

Hur förändrar AI attacker inom social ingenjörskonst?

Skriven av Matthew Olney | 2024-okt-16 10:50:10

Allteftersom AI-teknologierna blir mer sofistikerade, introducerar de också komplexa utmaningar när det gäller att skydda mot attacker inom social ingenjörskonst. Den här bloggen undersöker de problem som AI innebär för cybersäkerheten och i synnerhet hur AI förändrar hur brottslingar utför attacker inom social ingenjörskonst. 

Vän eller fiende? 

AI 

förmåga att förbättra cybersäkerhetsinsatser kan inte underskattas. Från att automatisera hotdetektering till att analysera stora mängder data för att identifiera misstänkta aktiviteter, AI-verktyg visar sig vara ovärderliga allierade. Samtidigt ger de fiender kraftfulla verktyg för att skapa mer övertygande och målinriktade kampanjer inom social ingenjörskonst. 

Uppkomsten av deepfakes 

Deepfake-tekniken, som drivs av AI, exemplifierar denna dubbelnatur. Deepfakes kan skapa mycket övertygande falska ljud och videor, vilket gör det möjligt att imitera individer med hög noggrannhet. Denna teknik används i bedrägerier, desinformationskampanjer och för att kringgå biometriska säkerhetsåtgärder, vilket innebär betydande hot både för individer och organisationer. 

Verkliga fall 

I februari 2024 inträffade det första AI-rånet av sitt slag när en anställd på ett multinationellt företag lurades att betala ut 25 miljoner dollar till bedragare. Angriparna använde deepfake-teknik för att utge sig för att vara företagets finanschef under ett videomöte, och fick den anställde att delta i ett möte med personer som han trodde var kollegor, men som i själva verket var deepfake-rekreationer. 

Den anställde hade blivit misstänksam efter att ha fått ett meddelande som påstods vara från företagets finanschef i Storbritannien. Ursprungligen trodde han att det var ett phishing-mejl eftersom det handlade om att genomföra en hemlig transaktion. Men han släppte sina tvivel efter videomötet eftersom de andra deltagarna såg ut och lät precis som kollegor han kände igen. 

På andra håll har deepfakes använts för att sprida desinformation på sociala medier. Kriget mellan Ryssland och Ukraina har sett båda sidor använda dem för propagandavinster och för att så splittring. 

AI-drivna phishingattacker 

Phishingattacker, som traditionellt har förlitat sig på mänsklig kreativitet och forskning, får nu extra kraft av AI. Generativa AI-verktyg som ChatGPT kan skapa personliga, övertygande meddelanden som imiterar legitima kommunikationer från betrodda enheter. Dessa AI-drivna phishingförsök ökar avsevärt risken för att lura mottagare och kringgå den traditionella säkerhetsutbildningens effektivitet. 

Phishing med deepfakes 

Phishing med deepfakes använder den grundläggande taktiken inom social ingenjörskonst för att lura användare och utnyttjar deras förtroende för att kringgå konventionella säkerhetsförsvar. Angripare använder deepfakes i olika phishing-scheman, såsom: 

  • E-postmeddelanden eller meddelanden: Risken för affärsmejlkompromiss (BEC)-attacker, som kostar företag miljarder årligen, ökar med deepfakes. Angripare kan skapa mer trovärdiga identiteter, till exempel genom att skapa falska ledningsprofiler på LinkedIn för att snärja anställda. 
  • Videomöten: Med hjälp av deepfake-teknik kan bedragare övertygande imitera andra under videokonferenser och övertyga offren att lämna ut känslig information eller genomföra obehöriga transaktioner. En anmärkningsvärd bluff involverade en kinesisk bedragare som lurade till sig 622 000 dollar med ansiktsbytes-teknik. 
  • Röstmeddelanden: Med teknik som kan klona en röst från endast ett tre sekunders ljudprov kan angripare skapa röstmeddelanden eller interagera i realtid, vilket gör det svårt att skilja mellan verkligt och falskt. 

Varför är phishing med deepfakes alarmerande? 

  • Snabb tillväxt: Phishing med deepfakes har ökat med 3 000 % under 2023, tack vare utvecklingen och tillgängligheten av generativ AI. 
  • Mycket personliga attacker: Deepfakes gör det möjligt för angripare att skräddarsy sina strategier och utnyttja individuella och organisatoriska sårbarheter. 
  • Svårigheter att upptäcka: AI 

förmåga att efterlikna skrivstilar, klona röster och skapa realistiska ansikten gör dessa attacker svåra att upptäcka. 

Utmaningarna 

Den snabbt ökande sofistikeringen av AI-drivna attacker inom social ingenjörskonst gör dem allt svårare att upptäcka. Traditionella säkerhetsåtgärder och utbildningar är utformade för att känna igen mönster och inkonsekvenser som är typiska för mänskligt skapade bedrägerier. Men AI 

förmåga att lära och anpassa sig innebär att den kontinuerligt kan förbättra sin strategi, minska antalet detekterbara avvikelser och efterlikna mänskligt beteende mer noggrant. 

Utvecklingen av AI-algoritmer 

AI-algoritmer, särskilt de som baseras på maskininlärning, utvecklas genom interaktion med data. Denna kontinuerliga inlärningsprocess innebär att AI-drivna attacker kan bli mer förfinade och svårare att upptäcka över tid. Säkerhetssystem som förlitar sig på statiska detektionsmetoder blir snabbt föråldrade och kräver ständiga uppdateringar och anpassningar för att hålla jämna steg med AI 

utveckling. 

Den mänskliga faktorn 

I hjärtat av attacker inom social ingenjörskonst ligger utnyttjandet av mänsklig psykologi. AI förvärrar denna sårbarhet genom att möjliggöra för angripare att analysera och förstå mänskligt beteende i stor skala. Denna djupa förståelse gör det möjligt att skapa mycket riktade attacker som utnyttjar specifika sårbarheter, såsom auktoritetsbias, brådska eller rädsla, vilket gör traditionell cybersäkerhetsutbildning mindre effektiv. 

Utmaningar med utbildning och medvetenhet 

Att öka medvetenheten och utbilda människor att känna igen och stå emot AI-drivna attacker inom social ingenjörskonst är mer utmanande än någonsin. Den realistiska naturen hos deepfakes och den personliga utformningen av phishing-mejl kan undvika den skeptiska granskning som anställda och individer har lärt sig. Detta kräver ett nytt tillvägagångssätt för utbildning i cybersäkerhet som tar hänsyn till de sofistikerade hoten från AI. 

Etiska och regulatoriska konsekvenser 

Användningen av AI i attacker inom social ingenjörskonst väcker också komplexa etiska och regulatoriska frågor. AI 

förmåga att imitera individer och skapa övertygande falskt innehåll utmanar befintliga rättsliga ramar kring samtycke, integritet och yttrandefrihet. Det väcker även frågan om vad som bör hända om en anställd utsätts för en deepfake eller faller offer för en sådan attack. 

Att säkra framtiden 

Att försvara sig mot AI-drivna attacker inom social ingenjörskonst kräver ett mångfacetterat tillvägagångssätt som kombinerar tekniska lösningar med mänsklig insikt. Implementering av avancerade AI- och maskininlärningsverktyg för att upptäcka och svara på hot i realtid är avgörande. Lika viktigt är dock att odla en cybersäkerhetskultur som stärker individer att ifrågasätta och verifiera, även när de möts av mycket övertygande falska representationer. 

Genom att förstå dessa utmaningar och anta ett proaktivt, AI-informerat tillvägagångssätt för cybersäkerhet kan organisationer navigera genom den digitala hotmiljön. Om du är oroad över de cyberhot som nämns i denna blogg, kontakta experterna på Integrity360.