”AI-revolutionen kommer att ge oss enorma belöningar — och otänkbara nya utmaningar. Vi är mer beroende av teknik än någonsin, och AI påverkar datasäkerhet och integritet på ett obegränsat sätt.”
Det här är vad Mikko Hyppönen, Principal Research Advisor på F‑Secure, beskrev i vår e‑bok ”Staying ahead of cyber threats in the age of AI”. Den senaste informationen från US Federal Trade Commission (FTC) om pengar som förlorats till bedrägerier förstärker detta påstående, eftersom olika typer av nätbedrägerier varit den främsta formen av bedrägeri år 2023.
Amerikanska konsumenter rapporteras ha förlorat en chockerande summa på 2,7 miljarder dollar till bedragare som utger sig för att vara någon annan under de senaste 12 månaderna. Statistiken har ökat exponentiellt år efter år tack vare snabba teknologiska framsteg inom, och allmän tillgänglighet av, artificiell intelligens. Men vilka trick använde bedragare?
De 3 vanligaste bedrägerierna med hjälp av AI
Internetbedrägerier där bedragaren imiterar någon annan finns i många former. En bedragare utger sig för att vara någon som du litar på för att övertyga dig att agera på ett visst sätt, till exempel att ge pengar. Denna typ av bedrägeri kan vara väldigt personligt och intimt, vilket gör att bedragare som utger sig för att vara någon annan är bland de mest hänsynslösa.
1. Phishing och smishing
Om du någonsin har fått e‑post med en skadlig länk som maskerats som något intressant för att få dig att klicka på den, är det fråga om nätfiske eller så kallad phishing. När en bedragare gör samma sak men via SMS kallas det för smishing.
Hur gör AI det mera effektivt?
WormGPT — ett skadligt alternativ till ChatGPT — är extremt effektivt för att konstruera phishing- eller smishing-attacker för att stjäla personliga uppgifter från individer eller lura offer att installera virus och malware.
Även utan denna anpassade verktyg kan generativa AI-appar som ChatGPT användas för att förbättra effektiviteten av AI-bedrägeri. Tack vare språkteknologin (NLP, natural language processing) i stora språkmodeller (LLM, large language models) kan en chatbot skriva ett professionellt mejl eller SMS på några sekunder.
En bot kan korrekturläsa texten i falska e‑postmeddelanden och automatiskt eliminera eventuella grammatiska fel och till och med översätta meddelanden till olika språk snabbt och noggrant. Detta ökar målgruppen för internetbedrägeri markant.
Hur kan du skydda dig?
Prova ChatGPT för att uppleva hur övertygande en konversation med AI kan vara. Medvetenheten kan hjälpa dig att undvika potentiella AI-bedrägerier.
Använd starka lösenord och flerfaktorsautentisering för att skydda dina konton.
Skydda dina enheter mot virus enkelt med en enda app.
2. Vishing
Det är fråga om vishing när du får ett telefonsamtal från en bedragare som försöker få tag på dina personliga uppgifter. Bedragaren kan också be dig att skicka pengar till dem genom att utge sig för att vara någon du känner eller litar på.
Hur gör AI det mera effektivt?
Föreställ dig att du får ett samtal mitt i natten från en familjemedlem eller nära vän som ber dig om hjälp. Men sedan upptäcker du att ljudet är fejkat och skapat av AI.
”När generativ AI blir mer tillgängligt och det krävs ännu mindre befintliga röstprover för att kopiera någons röst, kan denna mycket skräddarsydda form av AI-bedrägeri bli betydligt vanligare”, förklarar Laura Kankaala, Threat Intelligence Lead på F‑Secure.
Hur kan du skydda dig?
Förhåll dig kritiskt mot alla oväntade eller ovanliga krav på pengar, särskilt om personen begär presentkort, kryptovaluta eller en överföring av pengar utan förvarning. Ta en paus och googla lite om den situation du befinner dig i innan du fattar beslut om att skicka pengar.
Eftersom AI blir allt vanligare måste vi först vara skeptiska till allt, även kontakt från de personer vi älskar mest. Kom ihåg att nästan allt kan förfalskas med AI.
Om du kan, ring personen direkt. Du kan förvirra någon eller avbryta en djup sömn, men åtminstone har du inte låtit kriminella utnyttja dina bästa avsikter.
3. Deepfake
Det är inte bara lätt att imitera text och människors röster med AI. Med tillräcklig datorkraft och tid kan brottslingar skapa falska bilder och videor som överför ett ansikte till någon annans kropp i nästan vilken situation som helst. Dessa förfalskade visuella element kallas för deepfakes.
Hur möjliggör de cyberbrottslighet?
I juni 2023 meddelade FBI en ökning av skadliga aktörer som använder denna teknik för att skapa explicit material och begå sextortion. Detta inkluderar hotet att avslöja deepfake videor för familj och vänner.
Det finns ingen verklig begränsning för hur deepfakes kan användas, vare sig för känslomässigt missbruk, politisk manipulation eller rent bedrägeri. Vi har till och med sett deepfake videor av Elon Musk på X prata om en kryptoinvestering som han inte är involverad i.
När tekniken förbättras kommer inte bara antalet bedrägeriförsök att öka, utan även kvaliteten av bedrägerien — detta gör dem allt svårare att upptäcka.
Hur kan du skydda dig?
För att undvika att bli offer för deepfakes föreslår FBI:
Övervaka dina barns aktivitet på sociala medier.
Sök efter dig själv på webben regelbundet.
Säkra integritetsinställningarna och säkerheten för dina konton på sociala medier.
Om du befinner dig i en situation där du blir utpressad med deepfake bilder, föreslår Laura Kankaala:
Det närmaste till en verklig lösning för deepfakes är helt enkelt att inte ge efter för brottslingarnas krav och istället rapportera incidenterna till rättsväsendet.
Dessa brottslingar går efter flera personer samtidigt, så de har förmodligen inte tid att genomföra sina hot, som att hitta din familj och vänner för att visa dem de förfalskade bilderna.
Och även om brottslingarna går så långt, är det enda du kan göra att varna dina nära och kära att de kan se fejkade bilder. Det är inte idealt, men det är mycket bättre än att uppmuntra den här typen av utpressning.
Vem kan bli utsatt för nätbedrägerier eller AI-bedrägerier?
Bedragare kommer att utge sig för att vara någon person som många människor anser vara trovärdig eller av hög auktoritet eller värde, till exempel:
Statliga organisationer
Hyresvärdar eller allmännyttiga företag
Potentiella förälskare
Välkända företag som Amazon
Familjemedlemmar och nära vänner
Kollegor eller VD:n för ditt företag
Företag som erbjuder jobb
Leveranstjänster
Barnskötare och vårdgivare
Kändisar och världsledare
Riktiga exempel på nätbedrägeri
Bedragare använder vanligtvis en av två taktiker: att informera dig om ett problem och sedan erbjuda dig möjligheten att lösa det, eller att närma dig med en mycket personlig vädjan om pengar.
Falska varningar om “misstänkt aktivitet”
Abigail Bishop, Head of External Relations, Scam Prevention på Amazon, förklarar i The Global State of Scams Report att Amazon fick många rapporter om bedragare som skickade falska varningar om ”misstänkt aktivitet” år 2023.
Konsumenter som trodde att deras konto var äventyrat och klickade på den skadliga länken som bad dem att verifiera sin information gav bort sina betalnings- eller inloggningsuppgifter till bedragare. Amazon erbjuder utbildning i cybersäkerhet för att hjälpa konsumenter att identifiera bedrägeriförsök av den här typen.
Röstkloning av familjemedlemmar
Den svenska medborgaren Ann-Lis blev lurad på ett mycket annorlunda sätt. Hon fick ett SMS där det stod att hennes dotter hade bytt telefonnummer, följt av en begäran om pengar för en ny telefon och dator.
Ann-Lis var misstänksam tills hon fick ett telefonsamtal och hörde sin dotters röst som uppmanade henne att swisha tusentals svenska kronor. Vid det tillfället sänkte Ann-Lis sina misstankar, men lyckligtvis ingrep hennes bank och blockerade transaktionen när de insåg att något inte stämde.