OpenText startsida.
Tekniska ämnen

Vad är tokenisering?

Illustration av IT-objekt med fokus på ett frågetecken

Översikt

Tokenisering är en process genom vilken PAN, PHI, PII och andra känsliga dataelement ersätts med surrogatvärden eller tokens. Tokenisering är egentligen en form av kryptering, men de två termerna används vanligtvis på olika sätt. Kryptering innebär vanligtvis att data som kan läsas av människor kodas till obegriplig text som endast kan avkodas med rätt dekrypteringsnyckel, medan tokenisering (eller "maskering" eller "fördunkling") innebär någon form av formatbevarande dataskydd: känsliga värden konverteras till icke-känsliga ersättningsvärden - tokens - med samma längd och format som originaldata.

  • Tokens delar vissa egenskaper med de ursprungliga dataelementen, t.ex. teckenuppsättning, längd etc.
  • Varje dataelement mappas till en unik token.
  • Tokens är deterministiska: om man upprepade gånger genererar en token för ett visst värde får man samma token.
  • En tokeniserad databas kan sökas genom att tokenisera söktermerna och söka efter dessa.

Som en form av kryptering är tokenisering en viktig strategi för att skydda dataintegriteten för alla företag. Den här sidan ger en mycket övergripande bild av vad tokenisering är och hur det fungerar.

Tokenisering

Var kom tokenisering ifrån?

Digital tokenization skapades först av TrustCommerce 2001 för att hjälpa en kund att skydda kundernas kreditkortsinformation. Handlarna lagrade kortinnehavarnas uppgifter på sina egna servrar, vilket innebar att vem som helst som hade tillgång till servrarna potentiellt kunde se eller dra nytta av kundernas kreditkortsnummer.

TrustCommerce utvecklade ett system som ersatte primära kontonummer (PAN) med ett slumpmässigt nummer som kallas en token. Detta gjorde det möjligt för handlare att lagra och referera till tokens när de accepterade betalningar. TrustCommerce konverterade tokens tillbaka till PAN och behandlade betalningarna med hjälp av de ursprungliga PAN. Detta isolerade risken för TrustCommerce, eftersom handlarna inte längre hade några faktiska PAN-nummer lagrade i sina system.

I takt med att säkerhetsproblemen och myndighetskraven ökade visade den första generationens tokenisering att tekniken var värdefull, och andra leverantörer erbjöd liknande lösningar. Problemen med detta tillvägagångssätt blev dock snart uppenbara.


Vilka typer av tokenisering finns tillgängliga?

Det finns två typer av tokenisering: reversibel och irreversibel.

Reversibla tokens kan detokeniseras - omvandlas tillbaka till sina ursprungliga värden. I integritetsterminologi kallas detta för pseudonymisering. Sådana tokens kan vidare delas in i kryptografiska och icke-kryptografiska, även om denna distinktion är artificiell, eftersom all tokenisering egentligen är en form av kryptering.

Kryptografisk tokenisering genererar tokens med hjälp av stark kryptografi; dataelementen i klartext lagras inte någonstans - bara den kryptografiska nyckeln. NIST-standarden FF1-mode AES är ett exempel på kryptografisk tokenisering.

Icke-kryptografisk tokenisering innebar ursprungligen att tokens skapades genom att slumpmässigt generera ett värde och lagra cleartext och motsvarande token i en databas, som det ursprungliga TrustCommerce-erbjudandet. Detta tillvägagångssätt är konceptuellt enkelt, men innebär att varje begäran om tokenisering eller avtokenisering måste göra en serverbegäran, vilket ökar omkostnaderna, komplexiteten och riskerna. Den är inte heller skalbar på ett bra sätt. Tänk på en begäran om tokenisering av ett värde: servern måste först göra en databasuppslagning för att se om den redan har en token för det värdet. Om den gör det, returnerar den det. Om inte, måste den generera ett nytt slumpmässigt värde och sedan göra en ny databasuppslagning för att se till att det värdet inte redan har tilldelats för en annan klartext. Om så är fallet måste den generera ett nytt slumpmässigt värde, kontrollera det och så vidare. I takt med att antalet skapade tokens ökar, ökar den tid som krävs för dessa databasuppslagningar; än värre är att sannolikheten för sådana kollisioner växer exponentiellt. Sådana implementationer använder också vanligtvis flera token-servrar för lastbalansering, tillförlitlighet och failover. Dessa måste utföra databassynkronisering i realtid för att säkerställa tillförlitlighet och konsekvens, vilket ökar komplexiteten och omkostnaderna ytterligare.

Modern icke-kryptografisk tokenisering fokuserar på "stateless" eller "vaultless" metoder, där slumpmässigt genererade metadata används som kombineras på ett säkert sätt för att skapa tokens. Sådana system kan fungera frikopplade från varandra och skalas i princip oändligt eftersom de inte kräver någon synkronisering utöver kopiering av de ursprungliga metadata, till skillnad från databasstödd tokenisering.

Irreversibla polletter kan inte omvandlas tillbaka till sina ursprungliga värden. I integritetsterminologi kallas detta för anonymisering. Sådana tokens skapas genom en enkelriktad funktion, vilket möjliggör användning av anonymiserade dataelement för tredjepartsanalys, produktionsdata i lägre miljöer etc.


Fördelar med tokenisering

Tokenisering kräver minimala förändringar för att lägga till ett starkt dataskydd i befintliga applikationer. Traditionella krypteringslösningar förstorar data, vilket kräver betydande ändringar i databas- och programdataschema samt ytterligare lagring. Det innebär också att skyddade fält inte klarar några valideringskontroller, vilket kräver ytterligare kodanalys och uppdateringar. Tokens använder samma dataformat, kräver ingen ytterligare lagring och kan klara valideringskontroller.

Eftersom applikationer delar data är tokenisering också mycket enklare att lägga till än kryptering, eftersom processerna för datautbyte är oförändrade. Faktum är att många mellanliggande dataanvändningar - mellan inmatning och slutlig disposition - vanligtvis kan använda token utan att någonsin behöva detokenisera den. Detta förbättrar säkerheten och gör det möjligt att skydda data så snart som möjligt efter förvärvet och hålla dem skyddade under större delen av deras livscykel.

Inom ramen för säkerhetskraven kan tokens behålla partiella klartextvärden, t.ex. de inledande och avslutande siffrorna i ett kreditkortsnummer. Detta gör att nödvändiga funktioner - t.ex. kortrouting och "sista fyra"-verifiering eller utskrift på kundkvitton - kan utföras med hjälp av token utan att den behöver konverteras tillbaka till det faktiska värdet.

Denna möjlighet att direkt använda tokens förbättrar både prestanda och säkerhet: prestanda, eftersom det inte finns någon overhead när ingen detokenisering krävs; och säkerhet, eftersom det finns mindre attackyta tillgänglig eftersom cleartexten aldrig återställs.


Vad används tokenisering till?

Tokenisering används för att säkra många olika typer av känsliga uppgifter, t.ex:

  • Uppgifter om betalkort
  • Amerikanska personnummer och andra nationella identifikationsnummer
  • Telefonnummer
  • Passnummer
  • Nummer på körkort
  • E-postadresser
  • Nummer på bankkonto
  • Namn, adress, födelsedatum

I takt med att antalet dataintrång ökar och datasäkerhet blir allt viktigare tycker organisationer att tokenisering är tilltalande eftersom det är lättare att lägga till i befintliga applikationer än traditionell kryptering.

Efterlevnad av PCI DSS

Att skydda betalkortsdata är ett av de vanligaste användningsområdena för tokenisering, delvis på grund av krav på routing för olika korttyper samt "last four"-validering av kortnummer. Tokenisering av kortdata fick ett tidigt uppsving tack vare de krav som ställdes av Payment Card Industry Security Standards Council (PCI SSC). PCI DSS (Payment Card Industry Data Security Standard) kräver att företag som hanterar betalkortsdata säkerställer att de uppfyller strikta krav på cybersäkerhet. Att säkra betalkortsdata med kryptering är tillåtet enligt PCI DSS, men handlare kan också använda tokenisering för att uppfylla efterlevnadsstandarder. Eftersom dataflödena för betalningar är komplexa, högpresterande och väldefinierade är tokenisering mycket enklare att lägga till än kryptering.


Säkra känsliga data med tokenisering

Tokenisering blir ett alltmer populärt sätt att skydda data och kan spela en viktig roll i en lösning för skydd av dataintegritet. OpenText™ Cybersecurity är här för att hjälpa till att säkra känsliga affärsdata med OpenText™ Voltage™ SecureData, som tillhandahåller en mängd olika tokeniseringsmetoder för att passa alla behov.

Voltage SecureData och andra lösningar för cyberresiliens kan komplettera mänsklig intelligens med artificiell intelligens för att stärka alla företags datasäkerhet. Detta ger inte bara intelligent kryptering och en smartare autentiseringsprocess, utan gör det också möjligt att enkelt upptäcka nya och okända hot genom kontextuella hotinsikter.


Relaterade produkter

OpenText™ Data Privacy & Protection Foundation

Skydda data av högt värde samtidigt som den förblir användbar för hybrid IT

Sekretess och skydd av personuppgifter

Säkra data, minska riskerna, förbättra efterlevnaden och styra åtkomsten

Hur kan vi hjälpa till?

Fotnoter