Så används AI i nya bedrägerier
Utvecklingen av artificiell intelligens sker i rasande takt. Tekniken är kraftfull och har gjort det möjligt för bedragare att skapa allt mer avancerade bedrägerier.
Särskilt två metoder växer snabbt: så kallade deepfakes och AI-genererade röster. Dessa kan vara mycket svåra att avslöja, även för den som är vaksam.
Billigt och enkelt
En viktig orsak till ökningen är att tekniken har blivit billigare och mer lättillgänglig. Enligt analyser från AI Incident Database sker deepfake-bedrägerier nu i det som beskrivs som industriell skala. Den senaste analysen täckte november 2025 till januari 2026, och omfattar 108 rapporterade incidenter.
Vad är en deepfake?
Deepfakes innebär att man med hjälp av AI skapar trovärdiga videoklipp där människor ser ut att säga eller göra saker som aldrig har hänt. Du kan mycket väl redan sett en deepfake-video utan att du har förstått det.
Förra året spreds mängder med videos på en populär “trend” där kattägare skar i en tårta som såg ut som en katt, framför deras riktiga katt. När personen skar i tårtan reagerade deras katt med panik och starka reaktioner. Dessa videos var alla falska.
Sprids på sociala medier
Men deepfakes används tyvärr till mer än bara roliga kattvideos. Det är bland annat vanligt vid investeringsbedrägerier.
Kända personer som politiker, journalister eller företagsledare visas i manipulerade filmer där de påstås rekommendera kryptovalutor eller andra investeringar.
Klippen sprids ofta via sociala medier och fungerar som ett slags lockbete i större bedrägerikedjor, kombinerade med riktad annonsering och automatiserade kampanjer.
AI-genererade röster
En annan snabbt växande metod är AI-genererade röster. Med bara några minuters inspelat tal – ofta hämtat från poddar, sociala medier eller företagsfilmer – kan bedragare skapa en röst som låter nästan exakt som en verklig person.
Rösten kan sedan användas i telefonsamtal för att utge sig för att vara en chef, kollega eller släkting och pressa mottagaren att agera snabbt, till exempel genom att föra över pengar.
Sjukvården
Även sjukvården har blivit en måltavla. TV4 Nyheterna rapporterade i november 2025 om hur en forskare, utan sin vetskap, använts i ett AI-skapat videoklipp för att marknadsföra en påhittad diabetesmedicin.
Den här typen av bedrägeri riktar sig ofta mot personer med kroniska sjukdomar och kan få allvarliga konsekvenser om människor luras att avstå från sin ordinarie behandling.
Bli källkritisk
Gemensamt för fallen är att tekniken gör det möjligt för nästan vem som helst att skapa mycket övertygande bedrägerier, även med små resurser. För oss som privatpersoner är det viktigt att vara källkritiska. Lita inte blint på videoklipp, röster eller oväntade erbjudanden – särskilt när de handlar om pengar eller hälsa.
Lägg på luren
Hur bör man tänka kring imiterade röster och dålig samtal då? Den kan vara svår, men kom ihåg att du alltid kan avbryta ett samtal. Ta en paus, kontrollera informationen från flera håll och våga ifrågasätta. Polisen rekommenderar även att man kan bestämma kodord eller kontrollfrågor med sina nära och kära.
Om SkimSafe
Skydda din identitet med SkimSafe! Gör som tusentals andra och skydda dig från ID-kapningar, e-handelsbedrägerier, kapade digitala konton och mycket mer. Vår nya tjänst SkimSafe Online är Sveriges mest omfattande skydd mot moderna bedrägerier - registrera dig idag.
Kom igång