Lästid: 5 minuter
Senast redigerad:
Se upp för deepfakes – nya IT-hotet i rekrytering
FBI varnar för deepfakes i IT-rekrytering
En bedragare som får jobb inom programmering, IT-support eller databashantering kan stjäla affärskritisk data, installera ransomware och planera utpressningsaktiviteter – redan första dagen som anställd. Ja, med deepfake-teknikens snabba utveckling är det lätt att bli lurad. Men nu kommer allt fler anti-scam-lösningar.
Redan före AI:s frammarsch blev bilder på kändisar, politiker och influencers manipulerade via Photoshop. Men det tog tid och få hade tillgång. Idag är utvecklingen av deepfakes oöverskådlig till följd av utvecklingen av generativ-AI och lättanvända programvaror. Programvaror som dessutom är så gott som gratis.
Med några snabba klick är det närmast omöjligt att skilja det datorgenererade från det verkliga. Vissa kallar det AI hyperrealism, andra deepfake AI singularity.
Och visst kan det vara underhållande att titta på realistiska deepfake-videor, som exemplet nedan med Morgan Freeman.
Varning för bedragare
Numera är dessa videos så populära, och enkla att producera, att det finns ett helt TikTok-konto dedikerade åt dem.
Det är därför inte svårt att förstå att amerikanska Federal Trade Commission i fjol gick ut och varnade allmänheten för bedragare som använder sig av AI voice cloning och deepfakes för att svindla människor på pengar. Men också påverka valresultat och länders ekonomier.
Det senare är kanske det som gör deepfake till årets hetaste ord. För med val i 64 länder, inklusive ett EU-val, kommer 49 % av världens befolkning att rösta i år. Till råga på allt går utvecklingen med deepfakes fort. Så fort att denna artikel förmodligen snart kommer vara passé.
Läs även: Kompetensbrist inom cybersäkerhet hotar digital omställning
Hämtar underlag från sociala medier
Ändå är deepfakes inget nytt fenomen, utan känt sedan åtminstone 2017. Där ett av de mest virala exemplen är videon ”med” Tom Cruise.
Men deepfakes också väldigt skrämmande. Särskilt när de kommer närmare sin egen verklighet. Något som två föräldrar fick erfarna när bilder på deras dotter från sociala medier blev manipulerade. Videon lämnar nog ingen oberörd.
Bedrägeri och business?
VMwares rapporterar att bedrägeriattacker med deepfake-videos har skjutit i höjden med hela 13 % jämfört med förra året. Och i år spår de en ännu mer dramatisk ökning, särskilt när det gäller voice cloning-tekniken. Varför? Det är busenkelt att skapa sin egen.
Dagens mjukvaror behöver bara en ljudsnutt på tre ynka sekunder för att klona en röst. Till exempel en röst plockad direkt från ett webinar, en intervju på DI.se, ett ljudklipp från mobilen eller varför inte en bit av en jobbintervju.
Dessutom är investerarna helt sålda. För gränsen mellan affärsnytta och bedrägeri är inte helt tydlig. Kolla bara på Elevenlabs och Instreamatic som nyligen dragit in storkovan. Andra populära ljudappar inkluderar Aflorithmic och Resemble.AI. Men mest poppis är nog verktyget som finns helt gratis på GitHub.
Så, hur ställer deepfakes då till det i IT-rekryteringsvärlden?
Det är smidigare att bli anställd och få tillgång till systemen än att hacka sig in.
IT-rekrytering särskilt utsatt
Att råka anställa en AI-genererad medarbetare i IT-teamet kan låta som ren science fiction, men det är närmare verkligheten än många tror.
Kriminella har nämligen knäckt koden: det är smidigare att bli anställd och få tillgång till alla system än att hacka sig in. Vilket har fått FBI:s Internet Crime Complaint Center i USA att varna arbetsgivare för den ökade risken med deepfakes i digital rekrytering.
Framför allt är IT-branschen i hetluften. Och så här kan det gå till:
- En bedragare spanar in jobbannonser och plockar ut de tjänster som erbjuder tillgång till finansiell information, interna databaser och annan känslig data. Tänk remote work inom programmering, IT-support eller databasdrift.
- Därefter väljer skurken ut en perfekt kandidat för jobbet och skickar in en ansökan i den ovetande personens namn.
- När kallelsen till jobbintervjun landar, kickar bedragaren igång sin förvandling till deepfake-kandidaten.
Kolla bara hur lätt det är att köra live deepfakes under ett Zoom-möte:
Omöjligt att spåra
Kortfattat använder skurken realtidsteknik för att lägga ett fejkat ansikte ovanpå sitt eget. Och den här tekniken är inte vilken som helst. Den anpassar sig efter ansiktets naturliga linjer och följer med i varje ögonblinkning och munrörelse. Sanningen är att deepfake-tekniken är så pass övertygande att det rentav är omöjligt att genomskåda bluffen, åtminstone för den som inte är van.
Så fort scammern fått jobbet och tillgång till systemen, börjar förödelsen. Redan första arbetsdagen kan hen sno affärskritisk data, installera ransomware och planera för utpressning – allt tack vare sina egna inloggningsuppgifter.
Det som gör det hela ännu värre är att dessa bedrägerier är nästan omöjliga att spåra. Med andra ord kan de kan fortgå i månader utan att någon märker något – och även när de upptäcks är det sällan bedragarna blir funna och straffade.
Läs även: Nytt fenomen kring intervjufusk drabbar IT-sektorn
Kommer se fler deepfake-kandidater
Samtidigt är det många som tror att man själv är för smart för att bli lurad. Vilket är en farlig illusion. Ta bara det tragiska fallet där en anställd skickade iväg hela 35 miljoner dollar till en bedragare som använde deepfake-ljud för att imitera en av företagets chefer.
Dessutom behöver man inte vara något kriminellt geni för att lyckas. Även de mest medelmåttiga bedragarna kan använda deepfake-teknik i realtid, som under en jobbintervju. Prognosen säger att vi kommer att se en dramatisk ökning av deepfake-kandidater, och snart kommer även skräddarsydda AI-agenter att ta över ännu fler delar av de kriminellas arbete.
För att i takt med att AI-utvecklingen skrider framåt, kommer botarna att kunna hantera allt mer komplexa uppgifter för de som vill missbruka teknologin. Och ju mer avancerad AI blir, desto mer sofistikerade blir de verktyg som bedragarna använder för sina kriminella syften.
Nya IT-lösningar slår tillbaka
Så hur undviker man falska kandidater och säkrar sin IT-rekrytering?
Ett alternativ är att återuppliva den personliga intervjun. Med en slutintervju ansikte mot ansikte blir det svårt att dölja sig bakom en deepfake-mask.
Det är också smart att göra en gedigen bakgrundskontroll med ett riktigt bakgrundskontrollbolag som verifierar att kandidaten är den som hen utger sig för att vara. Eller prova nya, innovativa lösningar som CV Wallet.
Ett annat spår är att använda företag som specialiserat sig på deepfake detectoring inom IT-säkerhet. Ett sådant företag är Deepfake Proof, som gör det möjligt att enkelt identifiera falska bilder med bara ett klick i webbläsaren. I USA har flera rekryterare redan börjat använda denna teknik för att kontrollera om en profilbild på LinkedIn är AI-genererad.
Faktum är att branschen ser 2024 som ”Deepfake Detection Defining Year”. Därmed tar även andra populära detektorer plats som Reality Defenders och Sensity plats, medan Pim fokuserar på att upptäcka falska ljudkloner. Intel har utvecklat FakeCatcher, som de hävdar kan upptäcka video deepfakes med en noggrannhet på 96 % på bara några millisekunder.
Så här kan det gå till:
Rekrytera för ökad IT-säkerhet
Sammanfattningsvis har IT-säkerhet blivit viktigare än någonsin, inte minst i IT-rekrytering. Så det gäller att ha tungan rätt i mun. För vissa bolag kan det bli ett stort ok att bära själva, vilket ökar incitamenten att anlita externa rekryteringsexperter.
På Ada Digital är vi specialiserade på rekrytering, konsultuthyrning och interim för organisationer som vill stärka sin digitala affär. Det ger oss stor erfarenhet av att rekrytera allt från utvecklare till säkerhetsspecialister, samt hyra ut konsulter inom IT-segmentet. Men också genomföra tillsättningarna med säkra metoder. Dessutom samarbetar vi med ToFindOut, som är ledande i Norden på bakgrundskontroller för kvalitetssäkring inom rekrytering och personalområdet.
Vill du också undvika deepfakes i rekrytering utan att tumma på vare sig kvalitet eller effektivitet? Eller behöver en säkerhetsexpert som kan navigera dagens och morgondagens utmaningar inom informationssäkerhet? Hör då av dig till oss på Ada Digital!
En av nio trender från Unbiased Day 2024
Trenden om deepfakes är en del av Ada Digital och TNG:s populära trendspaning på temat ”Coexistence” från Unbiased Day 2024 – ett trend- och rekryteringsevent för chefer, företagsledare och HR.