Tekniska ämnen

Vad är Tokenization?

Översikt

Tokenization är en process där PAN, PHI, PII och andra känsliga dataelement ersätts med surrogatvärden, eller tokens. Tokenization är egentligen en form av kryptering, men de två termerna används vanligtvis på olika sätt. Kryptering innebär vanligtvis att data som kan läsas av människor kodas till obegriplig text som bara kan avkodas med rätt dekrypteringsnyckel, medan tokenisering (eller "maskering" eller "fördunkling") innebär någon form av formatbevarande dataskydd: känsliga värden omvandlas till icke-känsliga ersättningsvärden - tokens - med samma längd och format som de ursprungliga data.

  • Tokens delar vissa egenskaper med de ursprungliga dataelementen, t.ex. teckenuppsättning, längd osv.
  • Varje dataelement mappas till en unik token.
  • Tokens är deterministiska: upprepade genereringar av en token för ett givet värde ger samma token.
  • En tokeniserad databas kan sökas genom att tokenisera frågetermerna och söka efter dessa.

Som en form av kryptering är tokenisering en viktig strategi för att skydda dataintegriteten för alla företag. Den här sidan ger en översiktlig bild av vad tokenisering är och hur det fungerar.


Kryptering vs. tokenisering vs. vad som helst: Vad du behöver veta

Lär dig skillnaden mellan kryptering, tokenisering, fördunkling, maskering och andra termer. Även om termerna används exakt missförstår människor ofta skillnaderna mellan dem. Och dessa skillnader spelar roll.

Läs mer

Tokenisering

Var kom tokenisering ifrån?

Digital tokenization skapades först av TrustCommerce 2001 för att hjälpa en kund att skydda sina kunders kreditkortsinformation. Handlare lagrade kortdata på sina egna servrar, vilket innebar att alla som hade tillgång till deras servrar potentiellt kunde se eller dra nytta av kundernas kreditkortsnummer.

TrustCommerce utvecklade ett system som ersatte primära kontonummer (PAN) med ett slumpmässigt nummer som kallas en token. Detta gjorde det möjligt för handlare att lagra och referera till tokens när de accepterade betalningar. TrustCommerce konverterade tokens tillbaka till PAN och bearbetade betalningarna med de ursprungliga PAN. Detta isolerade risken för TrustCommerce, eftersom handlarna inte längre hade några faktiska PAN-nummer lagrade i sina system.

I takt med att säkerhetsproblemen och myndighetskraven ökade visade den första generationens tokenisering att tekniken var värdefull, och andra leverantörer erbjöd liknande lösningar. Problemen med detta tillvägagångssätt blev dock snart tydliga, vilket diskuteras nedan


Vilka typer av tokenisering finns tillgängliga?

Det finns två typer av tokenisering: reversibel och irreversibel.

Reversibla tokens kan detokeniseras - omvandlas tillbaka till sina ursprungliga värden. I integritetsterminologi kallas detta pseudonymisering. Sådana tokens kan delas in i kryptografiska och icke-kryptografiska, även om denna distinktion är artificiell eftersom all tokenisering egentligen är en form av kryptering.

Kryptografisk tokenisering genererar tokens med hjälp av stark kryptografi; dataelementen i klartext lagras ingenstans - bara den kryptografiska nyckeln. NIST-standard FF1-mode AES är ett exempel på kryptografisk tokenisering.

Icke-kryptografisk tokenisering innebar ursprungligen att tokens skapades genom att slumpmässigt generera ett värde och lagra cleartext och motsvarande token i en databas, som det ursprungliga TrustCommerce-erbjudandet. Detta tillvägagångssätt är konceptuellt enkelt, men innebär att varje begäran om tokenisering eller detokenisering måste göras via en server, vilket ökar overhead, komplexitet och risk. Det är inte heller särskilt skalbart. Tänk på en begäran om tokenisering av ett värde: servern måste först göra en sökning i databasen för att se om den redan har en token för det värdet. Om så är fallet returneras den. Om inte måste den generera ett nytt slumpmässigt värde och sedan göra en ny databassökning för att se till att värdet inte redan har tilldelats en annan cleartext. Om så är fallet måste det generera ett nytt slumpmässigt värde, kontrollera det och så vidare. När antalet skapade tokens växer, ökar den tid som krävs för dessa databasuppslagningar; värre är att sannolikheten för sådana kollisioner växer exponentiellt. Sådana implementeringar använder också vanligtvis flera token-servrar, för lastbalansering, tillförlitlighet och failover. Dessa måste utföra databassynkronisering i realtid för att säkerställa tillförlitlighet och konsekvens, vilket ökar komplexiteten och omkostnaderna ytterligare.

Modern icke-kryptografisk tokenisering fokuserar på "statslösa" eller "vaultless" metoder, med slumpmässigt genererade metadata som kombineras på ett säkert sätt för att bygga tokens. Sådana system kan fungera utan koppling till varandra och skalas i princip oändligt eftersom de inte kräver någon synkronisering utöver kopiering av de ursprungliga metadata, till skillnad från databasuppbackad tokenisering.

Irreversibla tokens kan inte konverteras tillbaka till sina ursprungliga värden. I integritetsterminologi kallas detta för anonymisering. Sådana tokens skapas genom en enkelriktad funktion, vilket möjliggör användning av anonymiserade dataelement för tredjepartsanalys, produktionsdata i lägre miljöer etc.


Fördelar med tokenisering

Tokenization kräver minimala förändringar för att lägga till ett starkt dataskydd i befintliga applikationer. Traditionella krypteringslösningar förstorar data, vilket kräver betydande ändringar i databas- och programdataschema samt ytterligare lagring. Det innebär också att skyddade fält inte klarar några valideringskontroller, vilket kräver ytterligare kodanalys och uppdateringar. Tokens använder samma dataformat, kräver ingen ytterligare lagring och klarar valideringskontroller.

När applikationer delar data är tokenisering också mycket enklare att lägga till än kryptering, eftersom processerna för datautbyte är oförändrade. Faktum är att många mellanliggande dataanvändningar - mellan ingestion och sluthantering - vanligtvis kan använda token utan att någonsin behöva avtokenisera den. Detta förbättrar säkerheten och gör det möjligt att skydda data så snart som möjligt vid förvärv och hålla den skyddad under större delen av dess livscykel.

Inom gränserna för säkerhetskraven kan tokens behålla partiella klartextvärden, t.ex. de inledande och avslutande siffrorna i ett kreditkortsnummer. Detta gör att nödvändiga funktioner - t.ex. kortdirigering och verifiering av "sista fyra" eller utskrift på kundkvitton - kan utföras med hjälp av token, utan att behöva konvertera den tillbaka till det faktiska värdet.

Denna möjlighet att direkt använda tokens förbättrar både prestanda och säkerhet: prestanda, eftersom det inte finns någon overhead när ingen detokenisering krävs; och säkerhet, eftersom eftersom cleartext aldrig återställs, finns det mindre angreppsyta tillgänglig.


Vad används tokenisering till?

Tokenisering används för att säkra många olika typer av känsliga data, t.ex:

  • uppgifter om betalkort
  • Amerikanska socialförsäkringsnummer och andra nationella identifikationsnummer
  • telefonnummer
  • Passnummer
  • nummer på körkort
  • e-postadresser
  • Bankkontonummer
  • namn, adresser, födelsedatum

I takt med att dataintrången ökar och datasäkerhet blir allt viktigare tycker organisationer att tokenisering är tilltalande eftersom det är enklare att lägga till i befintliga applikationer än traditionell kryptering.

PCI DSS-efterlevnad

Att skydda betalkortsdata är ett av de vanligaste användningsområdena för tokenisering, delvis på grund av routningskrav för olika korttyper samt "last four"-validering av kortnummer. Tokenisering för kortdata fick tidigt en skjuts framåt tack vare de krav som ställdes av Payment Card Industry Security Standards Council (PCI SSC). Enligt Payment Card Industry Data Security Standard (PCI DSS) måste företag som hanterar betalkortsdata se till att de uppfyller strikta krav på cybersäkerhet. Enligt PCI DSS är det tillåtet att säkra betalkortsdata med kryptering, men handlare kan också använda tokenisering för att uppfylla kraven. Eftersom dataflödena för betalningar är komplexa, högpresterande och väldefinierade är tokenisering mycket enklare att lägga till än kryptering.


Säkra känsliga data med tokenisering

Tokenisering blir ett allt populärare sätt att skydda data och kan spela en viktig roll i en lösning för dataintegritetsskydd. OpenText™ Cybersecurity hjälper till att säkra känsliga affärsdata med Voltage SecureData by OpenText™, som erbjuder en mängd olika tokeniseringsmetoder för att passa alla behov.

Voltage SecureData och andra lösningar för cyberresiliens kan komplettera mänsklig intelligens med artificiell intelligens för att stärka alla företags datasäkerhet. Detta ger inte bara intelligent kryptering och en smartare autentiseringsprocess, utan gör det också lättare att upptäcka nya och okända hot genom kontextuella hotinsikter.


Relaterade produkter

Voltage SecureData Enterprise av OpenText™

Voltage kryptering skyddar dataintegriteten, neutraliserar dataintrång och ökar affärsvärdet genom säker dataanvändning.

Voltage SecureData Betalningar från OpenText™

Skydda kreditkortsdata i miljöer med försäljningsställen, webb och mobil e-handel för att minska revisionskostnaderna, neutralisera dataintrång och bygga varumärkesvärde.

Hur kan vi hjälpa till?

Fotnoter

OpenText sidfot